IA e cibersegurança: a linha ténue entre inteligência e vulnerabilidade

Luís Brito
Luís Brito é engenheiro em Ciências e Sistemas de Computação e doutorado em Inteligência Artificial pela Universidade do Minho. Com mais de 25 anos de experiência, é CEO da Helion e membro do conselho de administração do grupo Eurotux. Atua também como investigador convidado na CESPU e professor convidado no IPVC, com trabalho focado em inovação, tecnologia e gestão.

A Inteligência Artificial (IA) já começa a estar integrada com o nosso dia-a-dia: ajuda-nos a escrever mensagens, a estudar, a organizar as fotos no telemóvel e até decide que anúncios vemos nas redes sociais, entre muitas outras coisas. Mas, à medida que esta tecnologia se torna mais presente, começam a surgir novas ameaças digitais. E é aqui que entra a cibersegurança – ou melhor, onde esta começa a ser posta à prova.

Os sistemas que integram IA continuam sujeitos aos riscos tradicionais da internet, como roubos de dados ou acessos indevidos. Mas há algo mais: a IA abre portas a novos tipos de ataques, muito mais difíceis de detetar e combater. Particular ênfase dada aos sistemas de IA Generativa que lidam com a nossa linguagem natural.

O que muda então com a IA?

A IA não veio substituir os sistemas informáticos tradicionais. É uma adição a esses sistemas para os tornar mais inteligentes ou eficientes. Mas isso significa que a infraestrutura passa a ter dois níveis de risco: os antigos, que já conhecíamos, e os novos, que surgem da própria lógica da IA.

Olhemos para um exemplo, um assistente virtual pode responder a perguntas – mas também pode ser induzido a dar informações erradas ou perigosas, pois tem muitas vezes acesso a sistemas restritos. Ou seja, o que antes era apenas um problema técnico, é agora também um problema “mental” da própria máquina…

A nova (e enorme) superfície de ataque

Em termos simples, a “superfície de ataque” é tudo aquilo que pode ser explorado por alguém mal-intencionado para entrar num sistema ou subvertê-lo. Quanto mais pontos de entrada existem, mais difícil é proteger tudo.

Com a IA, essa superfície aumenta (e muito). Porquê? Porque agora há novos elementos no sistema: os modelos de linguagem (vulgo LLMs) ou os algoritmos de decisão, e os dados de treino. Cada um destes elementos pode ser manipulado para causar danos.

Por exemplo:

· Alguém pode inserir dados falsos no sistema para que a IA aprenda de forma errada (o chamado poisoning – segundo investigação recente, apenas 0.01% de dados maliciosos chega para corromper um LLM de grandes dimensões);

· Pode usar comandos escondidos para subverter os resultados obtidos num LLM (o chamado prompt injection);

· Pode explorar falhas no código da IA para aceder a informação que devia estar protegida (estabelecer, por exemplo, uma backdoor).

Estes ataques não precisam de quebrar a segurança da rede ou da máquina – são manipulações à lógica interna da IA que escapam à quase totalidade das ferramentas de monitorização dos sistemas.

Os riscos aplicacionais

Ao contrário dos riscos mais conhecidos (como um vírus ou um phishing), os perigos ligados à IA acontecem dentro da própria aplicação. Por isso se diz que são riscos aplicacionais.

Um sistema que classifica as fotografias para publicação numa rede social pode, por exemplo, ser alvo de um ataque adversarial e classificar como “conforme” fotos que são inadequadas para publicação. Isto pode não parecer um “ataque” no sentido tradicional, mas pode ter consequências sérias e mostra como a IA pode ser usada (ou abusada) de formas subtis e difíceis de detetar.

Outro exemplo: sistemas de IA que gerem conteúdos, como os que escrevem textos ou criam imagens, podem ser levados a produzir material enganador, ofensivo ou ilegal, via prompt engineering.

Mas porque é que a defesa ainda é fraca?

As ferramentas de cibersegurança atuais foram pensadas para sistemas que funcionam fundamentalmente com regras fixas ou de forma determinística. A IA, pelo contrário, funciona com padrões, probabilidades e decisões que mudam com o tempo (há um pouco de aleatoriedade). Isso torna muito mais difícil prever ou bloquear comportamentos perigosos. Por outras palavras, não um match exato com um padrão previamente conhecido.

Por outro lado, há pouca regulação, e em muitos casos, pouco conhecimento técnico sobre como proteger estes novos sistemas. Muitos produtos com IA são lançados no mercado sem testes de segurança adequados (coisa a que o AI Act da UE vem tentar trazer alguma ordem).

O que se pode fazer de imediato?

Há várias formas de reduzir os riscos. Uma das mais importantes é começar logo pela arquitetura base dos sistemas: conceber aplicações com IA assumindo que os utilizadores podem ter intenções maliciosas, e não o contrário(!) Isto obriga a incluir mecanismos de verificação, limites de uso, e monitorização de raiz.

Algumas medidas, entre muitas outras, podem ser:

· Criar equipas de segurança ofensiva para estudar novas técnicas de ataque específicas de IA – as chamadas AI Red Teams;

· Implementar processos de auditoria e monitorização contínua dos sistemas que usam IA;

· Tal como no phishing, ensinar os utilizadores a identificar e reportar comportamentos estranhos da IA.

Conclusão

A IA, como qualquer nova tecnologia, traz consigo vantagens, mas também novas ameaças. Os sistemas que a utilizam continuam vulneráveis aos ataques tradicionais, mas agora têm novos pontos fracos, mais difíceis de ver e mais difíceis de proteger.

Proteger um sistema com IA é, cada vez mais, proteger não só os dados, mas as decisões, os resultados e os comportamentos que esses sistemas produzem. E isso começa logo no primeiro passo: criar tecnologias que partem do princípio de que os riscos existem e que merecem ser levados a sério.

Sign In

Register

Reset Password

Please enter your username or email address, you will receive a link to create a new password via email.

Scroll to Top