Regulamentar as competências de especialistas em Ética da IA - Sim ou Não?
Há relativamente pouco tempo li o estudo “Who is an AI Ethicist? An Empirical Study of Expertise, Skills, and Profiles to Build a Competency Framework” que nos sugere uma análise detalhada de perfis e competências necessários para profissionais de ética em inteligência artifical (IA). Embora eu considere que a criação de uma estrutura de competências seja um passo relevante e até necessário, este artigo suscitou-me diversas limitações que merecem uma reflexão mais aprofundada. Por que motivo essas limitações precisam de um cuidado especial?
Desde logo, porque o artigo parte de uma abordagem predominantemente ética e filosófica, sem considerar de forma adequada a necessidade de uma perspetiva multidisciplinar. A ética da IA, devido à sua natureza abrangente, requer a colaboração de diversas áreas de conhecimento, como a ciência da computação, o direito, a sociologia, as artes, e as ciências políticas, por exemplo. A concentração exclusiva no domínio ético-filosófico pode levar a uma visão limitada das complexidades envolvidas na aplicação prática dos princípios éticos em IA.
Para além deste aspeto, este artigo parte da falta de consideração pela inclusão de perspetivas diversas, especialmente de grupos sub-representados, justamente o que a ética da IA deverá garantir. Por outras palavras, a ética da IA não pode ser efetivamente garantida sem que as vozes e experiências de um amplo espectro de comunidades sejam ouvidas e levadas em conta. A omissão de uma abordagem que assegure a inclusão, a representatividade, dessas mesmas perspetivas é uma limitação significativa, dado o impacto desproporcional que as tecnologias de IA podem ter. Se por um lado, a criação de uma estrutura de competências é, sem dúvida, importante. Por outro lado, é crucial que esta estrutura inclua mecanismos para garantir a diversidade e a equidade, de forma a proteger contra potenciais impactos adversos, bias, etc.
A meu ver, há também que sublinhar que falar de uma “estrutura de competências” para o perfil de especialistas em ética da IA, quando a relevância e representatividade dos dados empíricos utilizados é limitada, pode ser pouco fiável. A dependência exclusiva de perfis do LinkedIn e o uso de termos de busca como “ética de IA” e “ética digital” são insuficientes para capturar um enquadramento real da amplitude e diversidade da comunidade de profissionais que trabalham nesta área. Ao mesmo tempo, o foco geográfico restrito e o viés linguístico introduzido pela utilização de termos em inglês também limitam a representatividade dos dados, resultando numa visão distorcida do panorama global da ética em IA. Além do mais, acredito que a limitação do período de análise (um ano) pode não captar as tendências emergentes e as evoluções recentes no campo.
Outra questão relevante que o artigo levanta, e que poderá ser explorada com mais profundidade, é a interdependência entre a ética e a “conformidade” (compliance). Embora exista uma relação direta entre estas duas áreas, a ética de IA parte de uma perspetiva distinta da conformidade legal que se baseia no cumprimento de normas e regulamentos estabelecidos, enquanto a ética envolve uma análise mais ampla sobre o impacto social, a justiça, a transparência e outros valores fundamentais. De facto, a rápida evolução e a crescente complexidade do setor de IA colocam estes profissionais numa posição única para preencher as lacunas entre regulamentação, inovação e práticas organizacionais.
Por este motivo, também subscrevo a necessidade fundamental de que as pessoas que atuam como especialistas em ética da IA desempenhem papéis de investigação e/ou formação. Quando se envolvem ativamente em projetos de investigação, as pessoas responsáveis pela ética em IA estarão atualizadas com as últimas tendências e desafios emergentes, o que assegura a elaboração de pareceres informados e relevantes. Além disso, ao assumirem funções de formação, poderão facilitar a compreensão ética dentro das organizações, promovendo uma cultura de ética que permeie todos os níveis hierárquicos. De fato, esta dupla função é necessária para que as organizações sigam as normas estabelecidas e desenvolvam uma compreensão mais profunda e crítica sobre as implicações éticas da IA.
A questão mais sensível deste artigo acaba por ser a credenciação como uma forma de legitimar a figura especialistas em ética da IA. Embora entenda que a credenciação pode ser uma ferramenta útil para garantir a competência dos profissionais nesta área, há um risco significativo desta se tornar uma barreira adicional para a inclusão de vozes diversas numa área que é à partida pluridisciplinar, multissectorial. Além disto, se o processo de acreditação for liderado por uma associação privada que impõe taxas de adesão e os custos associados aos processos de acreditação, em vez de ser uma iniciativa pública, irá aumentar ainda mais a exclusão digital e a falta de representatividade. Neste sentido, qualquer que venha a ser o sistema de acreditação implementado deve ser cuidadosamente desenhado para evitar aprofundar as desigualdades existentes e deve, idealmente, ser liderado por entidades governamentais que possam assegurar uma abordagem mais inclusiva e equitativa.
Em suma, embora este artigo contribua de forma relevante para a discussão sobre as competências e perfis necessários na ética da IA, o seu enfoque poderia beneficiar de uma perspetiva mais ampla e inclusiva, que considerasse a interdisciplinaridade e a necessidade de incluir diversas vozes no debate sobre as implicações éticas da IA. Dado que a ética da IA é um campo em constante e rápida evolução, as discussões devem ser abrangentes, representativas e orientadas para promover uma cultura de responsabilidade, transparência e integridade. Não podemos garantir que as tecnologias de IA sejam desenvolvidas e implementadas de forma ética e justa se começarmos por privatizar a própria certificação/ acreditação. Afinal, como é que podemos esperar que a ética prevaleça quando as vozes mais diversas serão silenciadas logo no início do processo?