
A Cláudia Lima Costa é advogada e doutoranda em Inteligência Artificial e Direito, com mais de quatro anos de experiência em direito societário e M&A. Sócia-fundadora da Lima Costa- Advogada R.L., Cláudia oferece soluções jurídicas inovadoras e sustentáveis para o setor de tecnologia e negócios. Com formações em Criminologia, Proteção de Dados, Propriedade Industrial e Redes Neuronais, possui um forte interesse pela Computação Quântica. Atualmente, é investigadora no Centro de Investigação Jurídica e tem um histórico profissional diversificado em diversos escritórios de advocacia em Portugal.
O regulamento da IA já foi publicado
Avisam-se todas as empresas que têm um novo Regulamento Europeu para estudar e aplicar: o Regulamento 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que estabelece regras harmonizadas sobre a Inteligência Artificial (IA) publicado no passado dia 12 de julho (Regulamento da IA).
Porquê um Regulamento da IA?
Para melhorar o mercado interno, promover a adoção de uma IA centrada no ser humano e fiável, proteger a saúde, a segurança, os direitos fundamentais, a democracia, o Estado de direito e o ambiente das ameaças dos sistemas de IA, enquanto tenta apoiar a inovação.
A quem se aplica?
Aos fornecedores e os responsáveis pela implantação de sistemas de IA que os colocam no mercado europeu ou os põem em serviço.
O que devem fazer?
As empresas devem confirmar se estão a comercializar e a utilizar um sistema de IA, tal como definido no presente regulamento. Um sistema de IA é entendido como um sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, infere, a partir dos dados que recebe, a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.
As empresas devem informar-se sobre as práticas de IA proibidas, tais como técnicas manipuladoras ou enganosas com o objetivo de distorcer o comportamento de uma pessoa e a avaliação e classificação de pessoas singulares, conduzindo a um tratamento desfavorável, entre outras.
Os fornecedores e os responsáveis pela implantação devem confirmar se os seus sistemas são de alto risco. Poderão ser de elevado risco sistemas abrangidos pelo Regulamento da Maquinaria, dispositivos médicos, usados no recrutamento ou na seleção de candidatos nas escolas, entre outros. Se forem considerados de alto risco, serão aplicadas várias obrigações, tais como as obrigações de transparência dos sistemas de alto risco, a sua supervisão humana e a criação de sistema de gestão do risco, entre outras.
Quem pode ajudar?
Serão criadas algumas entidades autoridades europeias que emitirão pareceres, recomendações, conselhos, que poderão ajudar as empresas. É o caso do Serviço para a IA criado pela Comissão Europeia e o Comité Europeu para a Inteligência Artificial. Será também criada uma entidade nacional que apoiará as empresas na aplicação deste regulamento.
Além disso, está em curso o processo de normalização para criar as normas técnicas necessárias para ajudar os programadores e outros profissionais a compreender quais são as técnicas necessárias a executar para cumprir as regras deste regulamento.
Quais são os prazos de aplicação?
O Regulamento entrará em vigor a 2 de agosto de 2024, mas será aplicado a partir de 2 de agosto de 2026, com exceção de algumas normas relativas às práticas proibidas e aos sistemas de IA de elevado risco que serão aplicados mais cedo.
Os próximos dois anos serão cruciais para compreender como implementar plenamente estas novas regras. Devemos manter-nos atentos!