
Duarte Drumond, Especialista em Marketing Digital, SEO e Inteligência Artificial Aplicada ao Marketing.
Ética na IA Generativa
Desde o lançamento do ChatGPT em 2022 que se levanta a questão da ética na IA Generativa. Esta tecnologia é cada vez mais usada e traz consigo questões éticas que necessitam consideração.
Atualmente é preciso desenvolver de forma responsável. Os algoritmos e sistemas desenvolvidos conseguem simular a inteligência humana através do raciocínio, reconhecimento visual, tomada de decisão e outras atividades.
Neste sentido, a ética deve ser promovida enquanto princípio orientador no desenvolvimento e uso da IA Generativa. É importante ter em consideração os impactos que a tecnologia terá na sociedade e aplicar princípios e diretrizes seguidas pela sociedade.
A ética abrange vários tópicos no campo da IA, cada um com o seu interesse. Pode incluir:
Viés algorítmico: Erro sistemático onde o LLM cria resultados injustos, como “privilegiar” uma categoria sobre outra;
Justiça: O termo justiça reporta-se às várias tentativas de corrigir o viés algorítmico em processo de decisão dos modelos de Machine Learning;
Tomada de decisão: Uso de dados, máquina e algoritmo para tomar decisões em vários contextos (negócios, saúde, emprego, marketing, entretenimento, educação, outros);
Regulamentação: Políticas e leis desenvolvidas para promover e regulamentar.
Preocupações éticas
A ética relativamente à IA Generativa é uma preocupação atual e futura. Atualmente existem preocupações referentes à privacidade, vieses, discriminação, direitos de autor e uso malicioso.
Privacidade: Os modelos de IA Generativa são treinados com grandes quantidades de dados, por vezes recolhidos sem o consentimento explícito dos indivíduos. Isto levanta preocupações sobre privacidade e uso não autorizado de informações pessoais;
Viés e discriminação: Os dados de treino (datasets) podem conter vieses e preconceitos refletidos na sociedade, o que pode levar a modelos de IA Generativa que perpetuam estereótipos e discriminação contra certos grupos;
Direitos de autor: Os datasets usados para treino dos LLM podem conter materiais protegidos por direitos de autor. Devem ser estabelecidas práticas de salvaguarda de informação ou conteúdos protegidos por direitos de autor;
Uso malicioso: A capacidade de gerar conteúdos realistas, como imagens, vídeos e texto, pode ser explorada para fins maliciosos, como desinformação, cibercrime e ataques de engenharia social.
Preocupações futuras
Uso crescente: O uso crescente da IA em todas as áreas da sociedade tem os seus riscos (processo de decisão totalmente automatizado e sem controlo humano, crescente necessidade de adoção de IA para acompanhar o mercado, entre outros) e é preciso mitigar os riscos à medida que estes surgem;
Direitos dos robots: Atualmente o conceito de “direitos” é aplicado a seres vivos, sejam humanos ou animais. Existe a possibilidade de, com o desenvolvimento de sistemas robóticos que simulam a inteligência humana, estes sistemas tenham direitos e deveres definidos perante a sociedade;
Bem-estar da IA: A IA caminha para atingir o conceito de “senciência” / “consciência”, ou a capacidade de sentir e perceber sensações / capacidade de estar ciente da sua existência e ter uma perceção do mundo. Estudos indicam que a IA pode mesmo já ter atingido consciência e pode estar a experienciar sofrimento de formas que os humanos não entendem;
Ameaça à dignidade humana: A IA está a ser usada para realizar tarefas que envolvem interação tipicamente humana. Interação humana envolve sentimentos e, caso a IA substitua a interação humana, o ser humano pode sentir-se alienado e desvalorizado. Assim sendo, a IA pode representar uma ameaça à dignidade humana.
Legislação e Regulamentação da IA
À medida que a IA Generativa se torna mais prevalente, surge a necessidade de regulamentação para garantir seu desenvolvimento e uso responsável. A União Europeia está a liderar este esforço com a proposta da EU AI Act.
A EU AI Act é uma proposta legislativa que visa regulamentar a IA no bloco europeu, estabelecendo regras e padrões para o desenvolvimento, implementação e uso de sistemas de IA. Alguns dos principais objetivos são:
Garantir que a IA seja segura, ética e respeite os direitos humanos;
Promover a inovação e o desenvolvimento responsável da IA;
Fornecer um quadro regulamentar harmonizado em toda a UE.
A Comissão Europeia também tem uma unidade de Inovação e Excelência em Robótica e Inteligência Artificial, que publicou um white paper sobre excelência e confiança na inovação em inteligência artificial em 19 de fevereiro de 2020.
Outras regiões, como os EUA e a China, estão a desenvolver suas estruturas regulatórias para IA, com abordagens e prioridades diferentes. A conformidade e governança serão fundamentais para garantir que os sistemas de IA Generativa possam ser desenvolvidos e usados de forma ética.
A Google, Facebook, IBM e Amazon estabeleceram uma organização chamada The Partnership on AI to Benefit People and Society. Esta organização pretende formular as melhores práticas em tecnologias de IA, promover o entendimento do público e ser uma plataforma de divulgação da tecnologia.
Responsabilidade na IA Generativa
A responsabilidade no desenvolvimento e no uso da IA Generativa deve ser partilhada por todas as partes interessadas. As principais partes são:
Desenvolvedores: Os criadores de modelos de IA têm a responsabilidade de adotar boas práticas (treino com dados éticos, testes para viés e implementação de medidas de segurança);
Utilizadores: Usar de forma consciente e crítica, compreendendo as limitações e potenciais riscos dos LLM e usar o conteúdo gerado de forma responsável;
Empresas e Instituições: As organizações que implementam a IA nos seus produtos ou serviços devem assumir a responsabilidade corporativa, garantindo que os sistemas sejam utilizados de forma ética, transparente e accountable.
Por Duarte Drumond
Especialista em Marketing Digital, SEO e Inteligência Artificial Aplicada ao Marketing.