Malwares com IA já existem e geram novos códigos durante ataques

Softwares recorrem a modelos de linguagem como o Gemini e o Hugging Face para reescrever trechos de código e tentar escapar da detecção

IA – O Google revelou ter identificado famílias de malware capazes de recorrer à inteligência artificial generativa durante a execução de ataques. Em relatório recente, a empresa descreve amostras que tentam criar ou reescrever códigos automaticamente, com o objetivo de roubar dados ou driblar sistemas de segurança.

Entre os exemplos citados estão o PromptFlux, que utiliza a API do Gemini para modificar seu código-fonte e evitar a detecção por antivírus, e o PromptSteal, que acessa um modelo hospedado no Hugging Face para gerar comandos voltados ao roubo de informações. Já o PromptLock surgiu em um estudo acadêmico destinado a testar se os grandes modelos de linguagem (LLMs) seriam capazes de planejar e executar ataques de ransomware de forma autônoma.

LEIA: Mais famílias acusam ChatGPT de encorajar suicídios e processam OpenAI

O relatório aponta que, embora essas amostras ainda sejam provas de conceito experimentais, elas sinalizam uma nova fase na evolução das ameaças digitais, em que sistemas de IA podem ser usados para adaptar ataques em tempo real. Segundo o documento, “os agentes estão indo além do uso da IA como suporte técnico”, tentando integrá-la às etapas centrais da invasão.

Apesar do alerta, especialistas em cibersegurança afirmam que os riscos reais são baixos. O pesquisador Marcus Hutchins, conhecido por barrar o ransomware WannaCry, comentou que os prompts utilizados pelos malwares são ineficientes ou mal estruturados.

“ não especifica o que o bloco de código deve fazer ou como deve escapar de um antivírus. Ele parte da premissa de que o Gemini vai saber instintivamente como driblar as proteções (ele não sabe)”, escreveu em seu perfil no LinkedIn.

Outro especialista, Kevin Beaumont, também minimizou o potencial desses malwares. ‘’Eu olhei as amostras. Muitas nem funcionam, falham imediatamente. Não tem nenhum perigo, se você tiver controles básicos de segurança”, avaliou.

Profissionais ouvidos pelo Ars Technica reforçaram a mesma visão: a IA, por enquanto, apenas ajuda criadores de malware a automatizar o que já faziam, sem representar um avanço concreto. “ apenas ajudando autores de malware a fazer o que já faziam. Nada novo. A IA vai melhorar, mas não sabemos quando nem quanto”, disse um deles sob anonimato.

Falha corrigida

O Google reconheceu ainda ter encontrado uma vulnerabilidade nas proteções do Gemini. Um agente mal-intencionado conseguiu enganar o modelo, fazendo-o gerar códigos maliciosos ao fingir participar de uma competição de segurança. A empresa afirma que ajustou as configurações do sistema para impedir novas tentativas desse tipo.

Segundo a companhia, o PromptFlux e outras variantes continuam em estágios iniciais e não possuem capacidade real de comprometer redes ou dispositivos. Mesmo assim, o relatório serve como alerta para o futuro, indicando que o uso de inteligência artificial por cibercriminosos tende a se tornar mais sofisticado com o tempo.

(Com informações de Tecnoblog)
(Foto: Reprodução/Freepik/DC Studio)

Leia mais