AI Act e Relações Laborais: O que as empresas portuguesas precisam saber até 2027
O Regulamento Europeu de Inteligência Artificial está a mudar as regras do jogo no recrutamento e gestão de pessoas. Descubra o que é proibido, o que é obrigatório e como preparar a sua empresa.
Prefere ouvir? Este artigo tem um resumo disponível em formato áudio, para acompanhar enquanto trabalha. Feito por IA.
Nota: Este artigo do IA Hoje foi elaborado com base no artigo académico de José Marques Moreira, publicado na revista Católica Law Review.
Ler artigo académico completoA inteligência artificial chegou aos Recursos Humanos há já alguns anos. Sistemas que filtram CVs, avaliam candidatos e monitorizam o desempenho de trabalhadores tornaram-se comuns em muitas empresas. Mas nem sempre com bons resultados.
A Amazon descobriu isso da pior forma. O seu sistema de recrutamento baseado em IA estava sistematicamente a descartar candidatas mulheres. Porquê? Simples. Tinha sido treinado com dados históricos de uma empresa predominantemente masculina. O algoritmo aprendeu e perpetuou a discriminação. [p. 87]
Em Itália, a Deliveroo usava um algoritmo que penalizava condutores que faltavam ao trabalho. O problema é que não distinguia entre faltar injustificadamente ou faltar por doença, greve ou cuidar de familiares. O resultado foi discriminação indireta. [p. 87]
E em Portugal? No plano de reestruturação da TAP, o algoritmo identificava trabalhadores "elegíveis" para despedimento com base no absentismo. Como as mulheres faltam mais por licenças de parentalidade, eram mais penalizadas. Discriminação algorítmica em território nacional. [p. 87-88]
Foi para evitar casos como estes que a União Europeia aprovou o Regulamento de Inteligência Artificial (AI Act), que está já parcialmente em vigor e trará mudanças profundas até 2027. [p. 88]
O que é o AI Act e quando entra em vigor
O AI Act, aprovado em junho de 2024, é a primeira legislação vinculativa do mundo sobre inteligência artificial. [p. 88-89] A abordagem é simples. Quanto maior o risco, maiores as obrigações.
O regulamento divide os sistemas de IA em quatro categorias. [p. 89]
- Risco inaceitável → Proibidos
- Alto risco → Obrigações rigorosas
- Risco limitado → Transparência básica
- Risco mínimo → Sem obrigações especiais
- 2 de fevereiro de 2025: Sistemas proibidos já estão em vigor
- Agosto de 2027: Sistemas de alto risco entram em vigor
O que é proibido: sistemas de IA que não pode usar
Desde fevereiro de 2025, há práticas de IA que são absolutamente proibidas no local de trabalho: [p. 91-93]
Reconhecimento de emoções de trabalhadores
A grande novidade para as empresas: não pode usar sistemas de IA para inferir as emoções dos seus trabalhadores. [p. 92, Art. 5.º, n.º 1, al. f)]
Imagine um call center onde câmaras e microfones analisam expressões faciais e tom de voz dos trabalhadores para "medir" se estão felizes, stressados ou motivados. Parece ficção científica? Já existe. E agora é ilegal na Europa. [p. 94]
Porquê esta proibição? [p. 93-94]
Primeiro, porque a ciência por trás destes sistemas é duvidosa. Uma expressão facial significa coisas diferentes em culturas diferentes ou até de pessoa para pessoa. Um trabalhador pode estar concentrado e o algoritmo interpretar como "aborrecido".
Segundo, porque é profundamente invasivo e cria ambientes laborais opressivos. Imaginar estar constantemente a ser avaliado emocionalmente por uma máquina.
Outras práticas proibidas: [p. 91-93]
- Técnicas manipuladoras ou enganadoras [Art. 5.º, n.º 1, als. a) e b)]
- "Social scoring" (como o sistema chinês de crédito social) [Art. 5.º, n.º 1, al. c)]
- Sistemas que preveem crimes baseados apenas em profiling [Art. 5.º, n.º 1, al. d)]
- Classificação biométrica para deduzir raça, orientação sexual, religião ou filiação sindical [Art. 5.º, n.º 1, al. g)]
Sistemas de alto risco: onde a IA está sob escrutínio
O AI Act considera de alto risco a maioria dos sistemas de IA usados em: [p. 95-96]
| Área | Utilizações de alto risco |
|---|---|
| Recrutamento e seleção | Anúncios direcionados, filtragem de CVs, avaliação de candidatos |
| Gestão laboral | Decisões sobre promoções/despedimentos, avaliação de desempenho, atribuição de tarefas, monitorização |
Se usa (ou planeia usar) IA nestas áreas, tem obrigações rigorosas a cumprir até agosto de 2027.
As 8 obrigações para sistemas de alto risco
Se a sua empresa utiliza IA de alto risco no contexto laboral, terá de: [p. 97]
- Implementar um sistema de gestão de riscos [Art. 9.º]
Identificar, avaliar e mitigar riscos dos sistemas de IA. - Garantir a qualidade dos dados [Art. 10.º]
Os datasets usados para treinar a IA não podem conter vieses discriminatórios. Este foi o erro da Amazon – dados históricos enviesados perpetuam discriminação. - Manter documentação técnica completa [Art. 11.º]
Como funciona o sistema, que dados usa, que decisões toma. - Criar registos automáticos (logs) [Art. 12.º]
Guardar histórico de decisões do sistema durante todo o seu ciclo de vida. - Cumprir regras de transparência [Art. 13.º]
Informar trabalhadores e candidatos que estão a ser avaliados por IA e como funciona o sistema. - Garantir supervisão humana [Art. 14.º]
Decisões importantes não podem ser totalmente automatizadas. Tem de haver sempre uma pessoa capaz de intervir. - Assegurar exatidão e cibersegurança [Art. 15.º]
Sistemas têm de ser precisos, robustos e protegidos contra ataques. - Formar equipas em literacia de IA [Art. 4.º, p. 97 nota 39]
Trabalhadores que operam ou são afetados por sistemas de IA precisam de formação adequada.
E em Portugal? O que já estava em vigor
Portugal deu um passo em frente ainda antes do AI Act. Com a Agenda do Trabalho Digno (maio de 2023), o Código do Trabalho passou a obrigar: [p. 100, nota 48]
Artigo 106.º, n.º 3, alínea s): O empregador deve informar o trabalhador sobre "os parâmetros, os critérios, as regras e as instruções em que se baseiam os algoritmos ou outros sistemas de inteligência artificial que afetam a tomada de decisões sobre o acesso e a manutenção do emprego".
Ou seja, já é obrigatório em Portugal explicar aos trabalhadores como funcionam os algoritmos usados no trabalho.
Além disso, o Artigo 24.º proíbe explicitamente discriminar candidatos ou trabalhadores com base em "decisões baseadas em algoritmos ou outros sistemas de inteligência artificial". [p. 100, nota 48]
O problema da "caixa negra"
Aqui chegamos a um dos maiores desafios técnicos e jurídicos do AI Act. [p. 98]
Existem três tipos de sistemas de IA: [p. 98]
- White-box (caixa branca): Transparentes, é possível perceber como tomam decisões. Mas têm capacidade limitada.
- Grey-box (caixa cinzenta): Semi-transparentes, dão alguma visibilidade mas não total.
- Black-box (caixa negra): Completamente opacas. Nem os programadores conseguem explicar exatamente como chegam às suas conclusões. São as mais usadas porque são as mais eficazes.
Cenário real: Um candidato é rejeitado por um algoritmo. Pede explicações. A empresa não consegue explicar porquê – porque nem o próprio sistema "sabe" porquê. O algoritmo encontrou padrões nos dados que nem os humanos identificam.
Como cumprir a lei nestas circunstâncias? É uma pergunta ainda sem resposta clara. [p. 99]
A proteção (frágil) de candidatos e trabalhadores
José Marques Moreira, autor do estudo académico que fundamenta este artigo, é crítico. Chama ao AI Act um "tigre de papel" quando se trata de proteger candidatos. [p. 101]
- Envia o CV para uma empresa
- O sistema de IA rejeita-o automaticamente (talvez por erro)
- A empresa simplesmente não responde (o silêncio não tem valor legal)
- Nunca fica a saber que foi IA que decidiu
- Não pode contestar o que não sabe que existe
Resultado: todas as proteções legais tornam-se inúteis.
"Bastará a ausência de uma resposta por parte do empregador à candidatura enviada, para que todo o enquadramento jurídico que serve de base à proteção do candidato se esfume na brisa."
— José Marques Moreira [p. 101]
O AI Act cria obrigações para as empresas e prevê coimas pesadas. Mas não confere aos candidatos ou trabalhadores direitos que possam invocar diretamente em tribunal (ao contrário do RGPD, que tem mecanismos mais robustos). [p. 101-102]
Direitos já existentes: o RGPD
Felizmente, o Regulamento Geral de Proteção de Dados já confere alguns direitos importantes: [p. 99-100]
- Direito a não estar sujeito a decisões exclusivamente automatizadas
- Direito a intervenção humana
- Direito a manifestar o ponto de vista
- Direito a contestar a decisão
Estes direitos aplicam-se desde 2018 e continuam válidos. O AI Act e o RGPD devem ser lidos em conjunto – são complementares. [p. 100]
O contexto internacional: Europa lidera
A União Europeia é pioneira na regulação de IA. Nos EUA e na China, não existe legislação federal vinculativa sobre o tema. [p. 88-89, nota 10]
Mas o exemplo europeu está a ser seguido: [p. 102, nota 53]
- Brasil (dezembro 2024): Aprovou a "Lei da Inteligência Artificial" (Projeto Lei 2.338/2023), com abordagem baseada em risco semelhante à europeia.
- Coreia do Sul (janeiro 2026): Vai implementar o "Basic Act on AI Development", também inspirado no modelo europeu.
É o chamado "Brussels Effect" – quando a regulação europeia se torna o padrão global (tal como aconteceu com o RGPD). [p. 102]
O que fazer? Recomendações práticas
- Audite todos os sistemas de IA que usa em RH
- Elimine reconhecimento de emoções se estiver a usar [p. 93]
- Verifique se está em alguma prática proibida [p. 91-93]
- Informe trabalhadores sobre algoritmos em uso (já é obrigatório em Portugal) [p. 100]
- Prepare documentação técnica completa dos sistemas de alto risco [p. 97, Art. 11.º]
- Implemente supervisão humana em todas as decisões críticas [p. 97, Art. 14.º]
- Audite os dados de treino – procure e elimine vieses [p. 97, Art. 10.º]
- Forme as equipas em literacia de IA [p. 97, Art. 4.º]
- Crie procedimentos de transparência para candidatos e trabalhadores [p. 97, Art. 13.º]
- Estabeleça sistema de gestão de riscos formal [p. 97, Art. 9.º]
- Não espere por 2027 para começar [p. 89]
- Envolva o departamento jurídico desde o início
- Considere contratar auditorias externas
- Documente tudo (será exigido por lei) [p. 97]
- Privilegie sistemas white-box ou grey-box quando possível [p. 98]
Conclusão: Entre a inovação e a proteção
O AI Act é um marco histórico. Pela primeira vez, temos regras claras e vinculativas sobre o uso de IA no trabalho. [p. 102-103]
Mas como em qualquer regulação pioneira, há desafios: [p. 103-104]
O que funciona:
- Proibição de práticas claramente abusivas
- Obrigações de transparência
- Penalizações sérias para quem não cumpre
O que precisa melhorar:
- Proteção direta de candidatos e trabalhadores [p. 104]
- Compatibilidade com sistemas black-box [p. 98-99]
- Harmonização com legislação nacional [p. 102, nota 50]
A mensagem final: As empresas portuguesas têm até 2027, mas devem começar já a preparar-se. [p. 89] Não apenas para cumprir a lei, mas para implementar IA de forma ética e responsável.
Porque no final, não se trata apenas de evitar coimas. Trata-se de não repetir os erros da Amazon, da Deliveroo ou da TAP. [p. 87-88]
Quer aprofundar o seu conhecimento sobre o AI Act?
Preparámos um guia completo com as perguntas mais frequentes sobre o Regulamento Europeu de Inteligência Artificial, com respostas oficiais e práticas.
Ver FAQ Completo do AI Act →Descubra qual o curso certo para implementar IA na sua empresa ou carreira.
Como funciona?
Em apenas 3 passos simples, identificamos a formação em Inteligência Artificial mais adequada às suas necessidades ou às da sua organização. Responda às questões e receba uma recomendação personalizada.
Fontes:
- Moreira, J. M. (2025). Os limites da Inteligência Artificial nas relações laborais de acordo com o Artificial Intelligence Act. Católica Law Review, 9(2), 85–107. https://doi.org/10.34632/catolicalawreview.2025.18007