AI Act e Relações Laborais: O que as empresas portuguesas precisam saber até 2027
O Regulamento Europeu de Inteligência Artificial está a mudar as regras do jogo no recrutamento e gestão de pessoas. Descubra o que é proibido, o que é obrigatório e como preparar a sua empresa.
Prefere ouvir? Este artigo tem um resumo disponível em formato áudio, para acompanhar enquanto trabalha. Feito por IA.
A inteligência artificial chegou aos Recursos Humanos há já alguns anos. Sistemas que filtram CVs, avaliam candidatos e monitorizam o desempenho de trabalhadores tornaram-se comuns em muitas empresas. Mas nem sempre com bons resultados.
A Amazon descobriu isso da pior forma. O seu sistema de recrutamento baseado em IA estava sistematicamente a descartar candidatas mulheres. Porquê? Simples. Tinha sido treinado com dados históricos de uma empresa predominantemente masculina. O algoritmo aprendeu e perpetuou a discriminação. [p. 87]
Em Itália, a Deliveroo usava um algoritmo que penalizava condutores que faltavam ao trabalho. O problema é que não distinguia entre faltar injustificadamente ou faltar por doença, greve ou cuidar de familiares. O resultado foi discriminação indireta. [p. 87]
E em Portugal? No plano de reestruturação da TAP, o algoritmo identificava trabalhadores "elegíveis" para despedimento com base no absentismo. Como as mulheres faltam mais por licenças de parentalidade, eram mais penalizadas. Discriminação algorítmica em território nacional. [p. 87-88]
Foi para evitar casos como estes que a União Europeia aprovou o Regulamento de Inteligência Artificial (AI Act), que está já parcialmente em vigor e trará mudanças profundas até 2027. [p. 88]
O que é o AI Act e quando entra em vigor
O AI Act, aprovado em junho de 2024, é a primeira legislação vinculativa do mundo sobre inteligência artificial. [p. 88-89] A abordagem é simples. Quanto maior o risco, maiores as obrigações.
O regulamento divide os sistemas de IA em quatro categorias. [p. 89]
- 🚫 Risco inaceitável → Proibidos
- 🔴 Alto risco → Obrigações rigorosas
- 🟡 Risco limitado → Transparência básica
- 🟢 Risco mínimo → Sem obrigações especiais
- ✅ 2 de fevereiro de 2025: Sistemas proibidos já estão em vigor
- 📅 Agosto de 2027: Sistemas de alto risco entram em vigor
O que é proibido: sistemas de IA que não pode usar
Desde fevereiro de 2025, há práticas de IA que são absolutamente proibidas no local de trabalho: [p. 91-93]
❌ Reconhecimento de emoções de trabalhadores
A grande novidade para as empresas: não pode usar sistemas de IA para inferir as emoções dos seus trabalhadores. [p. 92, Art. 5.º, n.º 1, al. f)]
Imagine um call center onde câmaras e microfones analisam expressões faciais e tom de voz dos trabalhadores para "medir" se estão felizes, stressados ou motivados. Parece ficção científica? Já existe. E agora é ilegal na Europa. [p. 94]
Porquê esta proibição? [p. 93-94]
Primeiro, porque a ciência por trás destes sistemas é duvidosa. Uma expressão facial significa coisas diferentes em culturas diferentes, ou até de pessoa para pessoa. Um trabalhador pode estar concentrado e o algoritmo interpretar como "aborrecido".
Segundo, porque é profundamente invasivo e cria ambientes laborais opressivos. Imaginar estar constantemente a ser avaliado emocionalmente por uma máquina.
Outras práticas proibidas: [p. 91-93]
- Técnicas manipuladoras ou enganadoras [Art. 5.º, n.º 1, als. a) e b)]
- "Social scoring" (como o sistema chinês de crédito social) [Art. 5.º, n.º 1, al. c)]
- Sistemas que preveem crimes baseados apenas em profiling [Art. 5.º, n.º 1, al. d)]
- Classificação biométrica para deduzir raça, orientação sexual, religião ou filiação sindical [Art. 5.º, n.º 1, al. g)]
Sistemas de alto risco: onde a IA está sob escrutínio
O AI Act considera de alto risco a maioria dos sistemas de IA usados em: [p. 95-96]
| Área | Utilizações de alto risco |
|---|---|
| Recrutamento e seleção | Anúncios direcionados, filtragem de CVs, avaliação de candidatos |
| Gestão laboral | Decisões sobre promoções/despedimentos, avaliação de desempenho, atribuição de tarefas, monitorização |
Se usa (ou planeia usar) IA nestas áreas, tem obrigações rigorosas a cumprir até agosto de 2027.
As 8 obrigações para sistemas de alto risco
Se a sua empresa utiliza IA de alto risco no contexto laboral, terá de: [p. 97]
- Implementar um sistema de gestão de riscos [Art. 9.º]
Identificar, avaliar e mitigar riscos dos sistemas de IA. - Garantir a qualidade dos dados [Art. 10.º]
Os datasets usados para treinar a IA não podem conter vieses discriminatórios. Este foi o erro da Amazon – dados históricos enviesados perpetuam discriminação. - Manter documentação técnica completa [Art. 11.º]
Como funciona o sistema, que dados usa, que decisões toma. - Criar registos automáticos (logs) [Art. 12.º]
Guardar histórico de decisões do sistema durante todo o seu ciclo de vida. - Cumprir regras de transparência [Art. 13.º]
Informar trabalhadores e candidatos que estão a ser avaliados por IA e como funciona o sistema. - Garantir supervisão humana [Art. 14.º]
Decisões importantes não podem ser totalmente automatizadas. Tem de haver sempre uma pessoa capaz de intervir. - Assegurar exatidão e cibersegurança [Art. 15.º]
Sistemas têm de ser precisos, robustos e protegidos contra ataques. - Formar equipas em literacia de IA [Art. 4.º, p. 97 nota 39]
Trabalhadores que operam ou são afetados por sistemas de IA precisam de formação adequada.
E em Portugal? O que já estava em vigor
Portugal deu um passo em frente ainda antes do AI Act. Com a Agenda do Trabalho Digno (maio de 2023), o Código do Trabalho passou a obrigar: [p. 100, nota 48]
Artigo 106.º, n.º 3, alínea s): O empregador deve informar o trabalhador sobre "os parâmetros, os critérios, as regras e as instruções em que se baseiam os algoritmos ou outros sistemas de inteligência artificial que afetam a tomada de decisões sobre o acesso e a manutenção do emprego".
Ou seja, já é obrigatório em Portugal explicar aos trabalhadores como funcionam os algoritmos usados no trabalho.
Além disso, o Artigo 24.º proíbe explicitamente discriminar candidatos ou trabalhadores com base em "decisões baseadas em algoritmos ou outros sistemas de inteligência artificial". [p. 100, nota 48]
O problema da "caixa negra"
Aqui chegamos a um dos maiores desafios técnicos e jurídicos do AI Act. [p. 98]
Existem três tipos de sistemas de IA: [p. 98]
- White-box (caixa branca): Transparentes, é possível perceber como tomam decisões. Mas têm capacidade limitada.
- Grey-box (caixa cinzenta): Semi-transparentes, dão alguma visibilidade mas não total.
- Black-box (caixa negra): Completamente opacas. Nem os programadores conseguem explicar exatamente como chegam às suas conclusões. São as mais usadas porque são as mais eficazes.
Cenário real: Um candidato é rejeitado por um algoritmo. Pede explicações. A empresa não consegue explicar porquê – porque nem o próprio sistema "sabe" porquê. O algoritmo encontrou padrões nos dados que nem os humanos identificam.
Como cumprir a lei nestas circunstâncias? É uma pergunta ainda sem resposta clara. [p. 99]
A proteção (frágil) de candidatos e trabalhadores
José Marques Moreira, autor do estudo académico que fundamenta este artigo, é crítico. Chama ao AI Act um "tigre de papel" quando se trata de proteger candidatos. [p. 101]
- Envia o CV para uma empresa
- O sistema de IA rejeita-o automaticamente (talvez por erro)
- A empresa simplesmente não responde (o silêncio não tem valor legal)
- Nunca fica a saber que foi IA que decidiu
- Não pode contestar o que não sabe que existe
Resultado: todas as proteções legais tornam-se inúteis.
"Bastará a ausência de uma resposta por parte do empregador à candidatura enviada, para que todo o enquadramento jurídico que serve de base à proteção do candidato se esfume na brisa."
— José Marques Moreira [p. 101]
O AI Act cria obrigações para as empresas e prevê coimas pesadas. Mas não confere aos candidatos ou trabalhadores direitos que possam invocar diretamente em tribunal (ao contrário do RGPD, que tem mecanismos mais robustos). [p. 101-102]
Direitos já existentes: o RGPD
Felizmente, o Regulamento Geral de Proteção de Dados já confere alguns direitos importantes: [p. 99-100]
- ✅ Direito a não estar sujeito a decisões exclusivamente automatizadas
- ✅ Direito a intervenção humana
- ✅ Direito a manifestar o ponto de vista
- ✅ Direito a contestar a decisão
Estes direitos aplicam-se desde 2018 e continuam válidos. O AI Act e o RGPD devem ser lidos em conjunto – são complementares. [p. 100]
O contexto internacional: Europa lidera
A União Europeia é pioneira na regulação de IA. Nos EUA e na China, não existe legislação federal vinculativa sobre o tema. [p. 88-89, nota 10]
Mas o exemplo europeu está a ser seguido: [p. 102, nota 53]
- 🇧🇷 Brasil (dezembro 2024): Aprovou a "Lei da Inteligência Artificial" (Projeto Lei 2.338/2023), com abordagem baseada em risco semelhante à europeia.
- 🇰🇷 Coreia do Sul (janeiro 2026): Vai implementar o "Basic Act on AI Development", também inspirado no modelo europeu.
É o chamado "Brussels Effect" – quando a regulação europeia se torna o padrão global (tal como aconteceu com o RGPD). [p. 102]
O que fazer? Recomendações práticas
- Audite todos os sistemas de IA que usa em RH
- Elimine reconhecimento de emoções se estiver a usar [p. 93]
- Verifique se está em alguma prática proibida [p. 91-93]
- Informe trabalhadores sobre algoritmos em uso (já é obrigatório em Portugal) [p. 100]
- Prepare documentação técnica completa dos sistemas de alto risco [p. 97, Art. 11.º]
- Implemente supervisão humana em todas as decisões críticas [p. 97, Art. 14.º]
- Audite os dados de treino – procure e elimine vieses [p. 97, Art. 10.º]
- Forme as equipas em literacia de IA [p. 97, Art. 4.º]
- Crie procedimentos de transparência para candidatos e trabalhadores [p. 97, Art. 13.º]
- Estabeleça sistema de gestão de riscos formal [p. 97, Art. 9.º]
- Não espere por 2027 para começar [p. 89]
- Envolva o departamento jurídico desde o início
- Considere contratar auditorias externas
- Documente tudo (será exigido por lei) [p. 97]
- Privilegie sistemas white-box ou grey-box quando possível [p. 98]
Conclusão: Entre a inovação e a proteção
O AI Act é um marco histórico. Pela primeira vez, temos regras claras e vinculativas sobre o uso de IA no trabalho. [p. 102-103]
Mas como em qualquer regulação pioneira, há desafios: [p. 103-104]
✅ O que funciona:
- Proibição de práticas claramente abusivas
- Obrigações de transparência
- Penalizações sérias para quem não cumpre
⚠️ O que precisa melhorar:
- Proteção direta de candidatos e trabalhadores [p. 104]
- Compatibilidade com sistemas black-box [p. 98-99]
- Harmonização com legislação nacional [p. 102, nota 50]
A mensagem final: As empresas portuguesas têm até 2027, mas devem começar já a preparar-se. [p. 89] Não apenas para cumprir a lei, mas para implementar IA de forma ética e responsável.
Porque no final, não se trata apenas de evitar coimas. Trata-se de não repetir os erros da Amazon, da Deliveroo ou da TAP. [p. 87-88]
📚 Quer aprofundar o seu conhecimento sobre o AI Act?
Preparámos um guia completo com as perguntas mais frequentes sobre o Regulamento Europeu de Inteligência Artificial, com respostas oficiais e práticas.
Ver FAQ Completo do AI Act →Descubra qual o curso certo para implementar IA na sua empresa ou carreira.
Como funciona?
Em apenas 3 passos simples, identificamos a formação em Inteligência Artificial mais adequada às suas necessidades ou às da sua organização. Responda às questões e receba uma recomendação personalizada.
📚 Fontes:
- Moreira, J. M. (2025). Os limites da Inteligência Artificial nas relações laborais de acordo com o Artificial Intelligence Act. Católica Law Review, 9(2), 85–107. https://doi.org/10.34632/catolicalawreview.2025.18007