AI Act e Relações Laborais: O que as empresas portuguesas precisam saber até 2027

O Regulamento Europeu de Inteligência Artificial está a mudar as regras do jogo no recrutamento e gestão de pessoas. Descubra o que é proibido, o que é obrigatório e como preparar a sua empresa.

🎧 Ouça este artigo

Prefere ouvir? Este artigo tem um resumo disponível em formato áudio, para acompanhar enquanto trabalha. Feito por IA.

A inteligência artificial chegou aos Recursos Humanos há já alguns anos. Sistemas que filtram CVs, avaliam candidatos e monitorizam o desempenho de trabalhadores tornaram-se comuns em muitas empresas. Mas nem sempre com bons resultados.

A Amazon descobriu isso da pior forma. O seu sistema de recrutamento baseado em IA estava sistematicamente a descartar candidatas mulheres. Porquê? Simples. Tinha sido treinado com dados históricos de uma empresa predominantemente masculina. O algoritmo aprendeu e perpetuou a discriminação. [p. 87]

Em Itália, a Deliveroo usava um algoritmo que penalizava condutores que faltavam ao trabalho. O problema é que não distinguia entre faltar injustificadamente ou faltar por doença, greve ou cuidar de familiares. O resultado foi discriminação indireta. [p. 87]

E em Portugal? No plano de reestruturação da TAP, o algoritmo identificava trabalhadores "elegíveis" para despedimento com base no absentismo. Como as mulheres faltam mais por licenças de parentalidade, eram mais penalizadas. Discriminação algorítmica em território nacional. [p. 87-88]

Foi para evitar casos como estes que a União Europeia aprovou o Regulamento de Inteligência Artificial (AI Act), que está já parcialmente em vigor e trará mudanças profundas até 2027. [p. 88]

O que é o AI Act e quando entra em vigor

O AI Act, aprovado em junho de 2024, é a primeira legislação vinculativa do mundo sobre inteligência artificial. [p. 88-89] A abordagem é simples. Quanto maior o risco, maiores as obrigações.

O regulamento divide os sistemas de IA em quatro categorias. [p. 89]

  • 🚫 Risco inaceitável → Proibidos
  • 🔴 Alto risco → Obrigações rigorosas
  • 🟡 Risco limitado → Transparência básica
  • 🟢 Risco mínimo → Sem obrigações especiais
📅 Datas cruciais: [p. 89]
  • 2 de fevereiro de 2025: Sistemas proibidos já estão em vigor
  • 📅 Agosto de 2027: Sistemas de alto risco entram em vigor
⚠️ Coimas: Até 35 milhões de euros ou 7% do volume de negócios anual (o que for maior). [p. 89]

O que é proibido: sistemas de IA que não pode usar

Desde fevereiro de 2025, há práticas de IA que são absolutamente proibidas no local de trabalho: [p. 91-93]

❌ Reconhecimento de emoções de trabalhadores

A grande novidade para as empresas: não pode usar sistemas de IA para inferir as emoções dos seus trabalhadores. [p. 92, Art. 5.º, n.º 1, al. f)]

Imagine um call center onde câmaras e microfones analisam expressões faciais e tom de voz dos trabalhadores para "medir" se estão felizes, stressados ou motivados. Parece ficção científica? Já existe. E agora é ilegal na Europa. [p. 94]

Porquê esta proibição? [p. 93-94]

Primeiro, porque a ciência por trás destes sistemas é duvidosa. Uma expressão facial significa coisas diferentes em culturas diferentes, ou até de pessoa para pessoa. Um trabalhador pode estar concentrado e o algoritmo interpretar como "aborrecido".

Segundo, porque é profundamente invasivo e cria ambientes laborais opressivos. Imaginar estar constantemente a ser avaliado emocionalmente por uma máquina.

✅ Exceção: Apenas para fins médicos ou de segurança. [p. 93] Por exemplo, sistemas que detetam fadiga em condutores profissionais para prevenir acidentes (mas note-se: detetar fadiga não é o mesmo que reconhecer emoções [p. 92, nota 24]).

Outras práticas proibidas: [p. 91-93]

  • Técnicas manipuladoras ou enganadoras [Art. 5.º, n.º 1, als. a) e b)]
  • "Social scoring" (como o sistema chinês de crédito social) [Art. 5.º, n.º 1, al. c)]
  • Sistemas que preveem crimes baseados apenas em profiling [Art. 5.º, n.º 1, al. d)]
  • Classificação biométrica para deduzir raça, orientação sexual, religião ou filiação sindical [Art. 5.º, n.º 1, al. g)]

Sistemas de alto risco: onde a IA está sob escrutínio

O AI Act considera de alto risco a maioria dos sistemas de IA usados em: [p. 95-96]

Área Utilizações de alto risco
Recrutamento e seleção Anúncios direcionados, filtragem de CVs, avaliação de candidatos
Gestão laboral Decisões sobre promoções/despedimentos, avaliação de desempenho, atribuição de tarefas, monitorização

Se usa (ou planeia usar) IA nestas áreas, tem obrigações rigorosas a cumprir até agosto de 2027.

As 8 obrigações para sistemas de alto risco

Se a sua empresa utiliza IA de alto risco no contexto laboral, terá de: [p. 97]

  1. Implementar um sistema de gestão de riscos [Art. 9.º]
    Identificar, avaliar e mitigar riscos dos sistemas de IA.
  2. Garantir a qualidade dos dados [Art. 10.º]
    Os datasets usados para treinar a IA não podem conter vieses discriminatórios. Este foi o erro da Amazon – dados históricos enviesados perpetuam discriminação.
  3. Manter documentação técnica completa [Art. 11.º]
    Como funciona o sistema, que dados usa, que decisões toma.
  4. Criar registos automáticos (logs) [Art. 12.º]
    Guardar histórico de decisões do sistema durante todo o seu ciclo de vida.
  5. Cumprir regras de transparência [Art. 13.º]
    Informar trabalhadores e candidatos que estão a ser avaliados por IA e como funciona o sistema.
  6. Garantir supervisão humana [Art. 14.º]
    Decisões importantes não podem ser totalmente automatizadas. Tem de haver sempre uma pessoa capaz de intervir.
  7. Assegurar exatidão e cibersegurança [Art. 15.º]
    Sistemas têm de ser precisos, robustos e protegidos contra ataques.
  8. Formar equipas em literacia de IA [Art. 4.º, p. 97 nota 39]
    Trabalhadores que operam ou são afetados por sistemas de IA precisam de formação adequada.

E em Portugal? O que já estava em vigor

Portugal deu um passo em frente ainda antes do AI Act. Com a Agenda do Trabalho Digno (maio de 2023), o Código do Trabalho passou a obrigar: [p. 100, nota 48]

Artigo 106.º, n.º 3, alínea s): O empregador deve informar o trabalhador sobre "os parâmetros, os critérios, as regras e as instruções em que se baseiam os algoritmos ou outros sistemas de inteligência artificial que afetam a tomada de decisões sobre o acesso e a manutenção do emprego".

Ou seja, já é obrigatório em Portugal explicar aos trabalhadores como funcionam os algoritmos usados no trabalho.

Além disso, o Artigo 24.º proíbe explicitamente discriminar candidatos ou trabalhadores com base em "decisões baseadas em algoritmos ou outros sistemas de inteligência artificial". [p. 100, nota 48]

O problema da "caixa negra"

Aqui chegamos a um dos maiores desafios técnicos e jurídicos do AI Act. [p. 98]

Existem três tipos de sistemas de IA: [p. 98]

  • White-box (caixa branca): Transparentes, é possível perceber como tomam decisões. Mas têm capacidade limitada.
  • Grey-box (caixa cinzenta): Semi-transparentes, dão alguma visibilidade mas não total.
  • Black-box (caixa negra): Completamente opacas. Nem os programadores conseguem explicar exatamente como chegam às suas conclusões. São as mais usadas porque são as mais eficazes.
⚠️ O dilema: O AI Act exige transparência e explicabilidade. Mas os sistemas mais avançados (black-box) não permitem isso. [p. 98-99]

Cenário real: Um candidato é rejeitado por um algoritmo. Pede explicações. A empresa não consegue explicar porquê – porque nem o próprio sistema "sabe" porquê. O algoritmo encontrou padrões nos dados que nem os humanos identificam.

Como cumprir a lei nestas circunstâncias? É uma pergunta ainda sem resposta clara. [p. 99]

A proteção (frágil) de candidatos e trabalhadores

José Marques Moreira, autor do estudo académico que fundamenta este artigo, é crítico. Chama ao AI Act um "tigre de papel" quando se trata de proteger candidatos. [p. 101]

O problema? Imagine este cenário: [p. 101]
  1. Envia o CV para uma empresa
  2. O sistema de IA rejeita-o automaticamente (talvez por erro)
  3. A empresa simplesmente não responde (o silêncio não tem valor legal)
  4. Nunca fica a saber que foi IA que decidiu
  5. Não pode contestar o que não sabe que existe

Resultado: todas as proteções legais tornam-se inúteis.

"Bastará a ausência de uma resposta por parte do empregador à candidatura enviada, para que todo o enquadramento jurídico que serve de base à proteção do candidato se esfume na brisa."
— José Marques Moreira [p. 101]

O AI Act cria obrigações para as empresas e prevê coimas pesadas. Mas não confere aos candidatos ou trabalhadores direitos que possam invocar diretamente em tribunal (ao contrário do RGPD, que tem mecanismos mais robustos). [p. 101-102]

Direitos já existentes: o RGPD

Felizmente, o Regulamento Geral de Proteção de Dados já confere alguns direitos importantes: [p. 99-100]

Artigo 22.º do RGPD:
  • ✅ Direito a não estar sujeito a decisões exclusivamente automatizadas
  • ✅ Direito a intervenção humana
  • ✅ Direito a manifestar o ponto de vista
  • ✅ Direito a contestar a decisão

Estes direitos aplicam-se desde 2018 e continuam válidos. O AI Act e o RGPD devem ser lidos em conjunto – são complementares. [p. 100]

O contexto internacional: Europa lidera

A União Europeia é pioneira na regulação de IA. Nos EUA e na China, não existe legislação federal vinculativa sobre o tema. [p. 88-89, nota 10]

Mas o exemplo europeu está a ser seguido: [p. 102, nota 53]

  • 🇧🇷 Brasil (dezembro 2024): Aprovou a "Lei da Inteligência Artificial" (Projeto Lei 2.338/2023), com abordagem baseada em risco semelhante à europeia.
  • 🇰🇷 Coreia do Sul (janeiro 2026): Vai implementar o "Basic Act on AI Development", também inspirado no modelo europeu.

É o chamado "Brussels Effect" – quando a regulação europeia se torna o padrão global (tal como aconteceu com o RGPD). [p. 102]

O que fazer? Recomendações práticas

📋 Para 2025 (ação imediata):
  1. Audite todos os sistemas de IA que usa em RH
  2. Elimine reconhecimento de emoções se estiver a usar [p. 93]
  3. Verifique se está em alguma prática proibida [p. 91-93]
  4. Informe trabalhadores sobre algoritmos em uso (já é obrigatório em Portugal) [p. 100]
📅 Até agosto de 2027:
  1. Prepare documentação técnica completa dos sistemas de alto risco [p. 97, Art. 11.º]
  2. Implemente supervisão humana em todas as decisões críticas [p. 97, Art. 14.º]
  3. Audite os dados de treino – procure e elimine vieses [p. 97, Art. 10.º]
  4. Forme as equipas em literacia de IA [p. 97, Art. 4.º]
  5. Crie procedimentos de transparência para candidatos e trabalhadores [p. 97, Art. 13.º]
  6. Estabeleça sistema de gestão de riscos formal [p. 97, Art. 9.º]
💡 Boas práticas:
  • Não espere por 2027 para começar [p. 89]
  • Envolva o departamento jurídico desde o início
  • Considere contratar auditorias externas
  • Documente tudo (será exigido por lei) [p. 97]
  • Privilegie sistemas white-box ou grey-box quando possível [p. 98]

Conclusão: Entre a inovação e a proteção

O AI Act é um marco histórico. Pela primeira vez, temos regras claras e vinculativas sobre o uso de IA no trabalho. [p. 102-103]

Mas como em qualquer regulação pioneira, há desafios: [p. 103-104]

✅ O que funciona:

  • Proibição de práticas claramente abusivas
  • Obrigações de transparência
  • Penalizações sérias para quem não cumpre

⚠️ O que precisa melhorar:

  • Proteção direta de candidatos e trabalhadores [p. 104]
  • Compatibilidade com sistemas black-box [p. 98-99]
  • Harmonização com legislação nacional [p. 102, nota 50]

A mensagem final: As empresas portuguesas têm até 2027, mas devem começar a preparar-se. [p. 89] Não apenas para cumprir a lei, mas para implementar IA de forma ética e responsável.

Porque no final, não se trata apenas de evitar coimas. Trata-se de não repetir os erros da Amazon, da Deliveroo ou da TAP. [p. 87-88]


📚 Quer aprofundar o seu conhecimento sobre o AI Act?

Preparámos um guia completo com as perguntas mais frequentes sobre o Regulamento Europeu de Inteligência Artificial, com respostas oficiais e práticas.

Ver FAQ Completo do AI Act →
📚 Formação IA para Empresas e Profissionais

Descubra qual o curso certo para implementar IA na sua empresa ou carreira.

Como funciona?
Em apenas 3 passos simples, identificamos a formação em Inteligência Artificial mais adequada às suas necessidades ou às da sua organização. Responda às questões e receba uma recomendação personalizada.

Forme-se a si e à sua equipa →

📚 Fontes:

Sign In

Register

Reset Password

Please enter your username or email address, you will receive a link to create a new password via email.

Scroll to Top