União Europeia · Regulamento 2024/1689
AI Act: O Primeiro Regulamento de IA do Mundo Explicado
O AI Act é a primeira legislação abrangente sobre inteligência artificial a nível mundial. Estabelece regras claras baseadas em risco, proíbe práticas prejudiciais e posiciona a Europa como líder global na regulação de IA de confiança.
Índice
O que é o AI Act e porque precisamos de regras para a IA
O primeiro enquadramento jurídico abrangente sobre IA
O AI Act (Regulamento (UE) 2024/1689 sobre regras harmonizadas em matéria de inteligência artificial) é a primeira legislação abrangente sobre IA a nível mundial. Entrou em vigor a 1 de agosto de 2024 e será totalmente aplicável a 2 de agosto de 2026.
O objetivo é promover uma IA confiável na Europa, parte de um pacote mais amplo que inclui o Pacote de Inovação da IA e o lançamento de gigafábricas de IA. Juntas, estas medidas garantem segurança, direitos fundamentais e IA centrada no ser humano.
Porque são necessárias regras específicas para a IA
O AI Act garante que os europeus podem confiar no que a IA oferece. Embora a maioria dos sistemas de IA apresente riscos limitados ou nulos e possa contribuir para resolver muitos desafios sociais, certos sistemas de IA criam riscos que devem ser abordados.
Principais desafios:
- Opacidade das decisões: Frequentemente não é possível descobrir porque um sistema de IA tomou determinada decisão ou previsão
- Discriminação potencial: Pode ser difícil avaliar se alguém foi injustamente desfavorecido, como numa decisão de contratação ou pedido de benefício público
- Insuficiência da legislação existente: Embora exista proteção, é insuficiente para abordar os desafios específicos que os sistemas de IA podem trazer
AI Act Single Information Platform
Todas as questões sobre o AI Act respondidas na plataforma oficial da Comissão Europeia.
Abordagem baseada em risco: os 4 níveis
O AI Act define 4 níveis de risco para sistemas de IA, estabelecendo obrigações proporcionais ao nível de risco apresentado:
🚫 Risco Inaceitável - PROIBIDO
Todos os sistemas de IA considerados uma ameaça clara à segurança, meios de subsistência e direitos das pessoas são proibidos. O AI Act proíbe 8 práticas:
- Manipulação e engano prejudiciais baseados em IA
- Exploração prejudicial de vulnerabilidades baseada em IA
- Pontuação social (social scoring)
- Avaliação ou previsão individual de risco de cometer crimes
- Recolha não direcionada de material da internet ou CCTV para criar bases de dados de reconhecimento facial
- Reconhecimento de emoções em locais de trabalho e instituições de ensino
- Categorização biométrica para deduzir certas características protegidas
- Identificação biométrica remota em tempo real para aplicação da lei em espaços públicos
⚠️ Risco Elevado - REGULADO
Casos de uso de IA que podem representar riscos graves para a saúde, segurança ou direitos fundamentais. Incluem:
- Componentes de segurança em infraestruturas críticas (transportes)
- Soluções usadas em instituições de ensino (classificação de exames)
- Componentes de segurança de produtos (cirurgia assistida por robô)
- Ferramentas para emprego e gestão de trabalhadores (software de triagem de CVs)
- Acesso a serviços privados e públicos essenciais (pontuação de crédito)
- Identificação biométrica remota e reconhecimento de emoções
- Aplicação da lei que interfira com direitos fundamentais
- Gestão de migração, asilo e controlo de fronteiras
- Administração da justiça e processos democráticos
ℹ️ Risco Limitado - TRANSPARÊNCIA
Riscos associados à necessidade de transparência no uso de IA. Obrigações específicas de divulgação:
- Chatbots: Os humanos devem saber que estão a interagir com uma máquina
- Conteúdo gerado por IA: Deve ser identificável
- Deepfakes: Devem ser clara e visivelmente rotulados
- Texto publicado para informar o público: Deve ser claramente identificado se gerado por IA
✅ Risco Mínimo ou Nulo - SEM REGRAS
O AI Act não introduz regras para IA com risco mínimo ou nulo. A grande maioria dos sistemas de IA atualmente usados na UE enquadra-se nesta categoria:
- Videojogos com IA
- Filtros de spam
- Aplicações gerais de IA
Como funciona na prática para sistemas de alto risco
Obrigações estritas antes de colocar no mercado
Os sistemas de IA de alto risco estão sujeitos a obrigações rigorosas antes de poderem ser colocados no mercado:
- Avaliação e mitigação adequadas de riscos
- Elevada qualidade dos conjuntos de dados que alimentam o sistema para minimizar resultados discriminatórios
- Registo de atividade para garantir rastreabilidade dos resultados
- Documentação detalhada fornecendo todas as informações necessárias sobre o sistema e o seu objetivo
- Informação clara e adequada ao utilizador
- Medidas apropriadas de supervisão humana
- Elevado nível de robustez, cibersegurança e precisão
Processo de declaração de conformidade
Uma vez no mercado:
- Autoridades: Responsáveis pela vigilância do mercado
- Utilizadores: Garantem supervisão humana e monitorização
- Fornecedores: Sistema de monitorização pós-comercialização implementado
- Relatórios: Fornecedores e utilizadores reportam incidentes graves e falhas de funcionamento
AI Act Service Desk
Informação e apoio para uma implementação tranquila e eficaz do AI Act em toda a UE.
IA de Propósito Geral (GPAI)
Uma solução para o uso confiável de grandes modelos de IA
Os modelos de IA de propósito geral podem executar uma ampla gama de tarefas e estão a tornar-se a base de muitos sistemas de IA na UE. Alguns destes modelos podem apresentar riscos sistémicos se forem muito capazes ou amplamente usados.
Para garantir IA segura e confiável, o AI Act estabelece regras para fornecedores de tais modelos, incluindo regras de transparência e direitos de autor. Para modelos que possam apresentar riscos sistémicos, os fornecedores devem avaliar e mitigar esses riscos.
As regras do AI Act sobre GPAI entraram em vigor em agosto de 2025.
Apoio à conformidade GPAI
Em julho de 2025, a Comissão introduziu 3 instrumentos-chave para apoiar o desenvolvimento e implementação responsáveis de modelos GPAI:
1. Orientações sobre o âmbito das obrigações
Clarificam o âmbito das obrigações GPAI ao abrigo do AI Act, ajudando os atores da cadeia de valor de IA a compreender quem deve cumprir estas obrigações.
2. Código de Prática GPAI
Ferramenta voluntária de conformidade submetida à Comissão por peritos independentes, oferecendo orientação prática para ajudar os fornecedores a cumprir obrigações relacionadas com transparência, direitos de autor, e segurança.
3. Modelo para resumo público do conteúdo de formação
Requer que os fornecedores deem uma visão geral dos dados usados para treinar os seus modelos, incluindo fontes e processamento de dados.
Ferramentas integradas para conformidade
Estes três instrumentos foram concebidos para funcionar em conjunto, proporcionando um enquadramento claro e acionável para fornecedores de modelos GPAI cumprirem o AI Act, reduzindo a carga administrativa e promovendo a inovação ao mesmo tempo que salvaguardam direitos fundamentais e confiança pública.
Governança e implementação
Estrutura de governança
Gabinete Europeu para a IA: Juntamente com as autoridades dos Estados-Membros, responsável por implementar, supervisionar e fazer cumprir o AI Act.
Conselho de IA: Orienta e aconselha a governança do AI Act.
Painel Científico: Fornece aconselhamento técnico e científico.
Fórum Consultivo: Envolve partes interessadas na implementação do regulamento.
Timeline de aplicação
Entrada em vigor
O AI Act entra oficialmente em vigor
Proibições e literacia
As proibições e obrigações de literacia em IA entram em aplicação
Governança e GPAI
As regras de governança e obrigações para modelos GPAI tornam-se aplicáveis
Aplicação total
O AI Act será totalmente aplicável
Produtos regulados
Período de transição alargado para sistemas de IA de alto risco incorporados em produtos regulados
AI Pact: preparação antecipada para o AI Act
Para quem é o AI Pact
O AI Pact é uma iniciativa voluntária lançada pela Comissão para apoiar a futura implementação do AI Act. É aberta a todos os stakeholders:
- Empresas (multinacionais e PME)
- Organizações sem fins lucrativos
- Académicos
- Funcionários públicos
- Qualquer organização envolvida no design, desenvolvimento, implementação ou uso de sistemas de IA
- Da UE e de fora (iniciativa global)
Mais de 200 empresas já aderiram, incluindo Google, Microsoft, Amazon, OpenAI, Snap, entre outras, de setores como IT, telecomunicações, saúde, banca, automóvel e aeronáutica.
Estrutura do AI Pact: 2 pilares
Pilar I: Partilha de conhecimento
Aberto a todos os stakeholders. Os participantes contribuem para criar uma comunidade colaborativa, partilhando experiências e conhecimento através de workshops organizados pelo Gabinete Europeu para a IA.
Pilar II: Compromissos voluntários (Pledges)
Fornecedores e utilizadores de sistemas de IA são encorajados a partilhar proativamente as ações concretas que se comprometem a tomar para cumprir os requisitos do AI Act.
Os 3 compromissos principais
As empresas que aderem ao AI Pact comprometem-se a pelo menos três ações principais:
- Estratégia de governança de IA: Promover a adoção de IA na organização e trabalhar para futura conformidade com o AI Act
- Mapeamento de sistemas de alto risco: Identificar sistemas de IA que possam ser categorizados como de alto risco ao abrigo do AI Act
- Promover literacia em IA: Garantir sensibilização sobre tecnologia de IA e requisitos do AI Act entre o pessoal, assegurando desenvolvimento ético e responsável de IA
Compromissos adicionais (mais de metade dos signatários):
- Garantir supervisão humana
- Mitigar riscos
- Rotular transparentemente conteúdo gerado por IA, como deepfakes
Benefícios de aderir ao AI Pact
- Aumentar credibilidade: Demonstrar compromisso público com IA ética e confiável
- Preparação antecipada: Estar à frente dos requisitos legais do AI Act
- Partilha de melhores práticas: Acesso a uma comunidade que partilha experiências e orientações
- Visibilidade: Os compromissos são publicados pela Comissão Europeia
- Reduzir risco: Testar medidas internas antes da aplicação total do AI Act
- Colaboração com reguladores: Envolvimento direto com o Gabinete Europeu para a IA
Os compromissos não são juridicamente vinculativos
As empresas podem aderir ao AI Pact a qualquer momento até o AI Act ser totalmente aplicável. Os compromissos não impõem obrigações legais, mas demonstram compromisso voluntário com IA responsável. As empresas participantes serão convidadas a reportar publicamente o seu progresso 12 meses após a publicação dos seus compromissos.
Aderir ao AI Pact
Comprometa-se a implementar as obrigações do AI Act antecipadamente e junte-se a mais de 200 organizações.
Pacote de Inovação da IA
O AI Act faz parte de um pacote mais amplo de medidas políticas para apoiar o desenvolvimento de IA confiável, que também inclui:
AI Innovation Package (Pacote de Inovação da IA): Medidas para fortalecer a adoção, investimento e inovação em IA em toda a UE.
AI Factories (Gigafábricas de IA): Infraestruturas de supercomputação dedicadas à IA.
Juntas, estas medidas garantem segurança, direitos fundamentais e IA centrada no ser humano, ao mesmo tempo que fortalecem a adoção, investimento e inovação em IA em toda a UE.
Fonte: Comissão Europeia, Digital Strategy - Regulatory framework on AI. Informação atualizada em janeiro de 2025.
AI Pact - Pacto de IA
Junte-se à iniciativa voluntária para conformidade antecipada com o AI Act.
Aderir agoraEstratégia de IA para a Europa
Conheça a abordagem europeia para excelência e confiança em IA.
Ler artigo