A inteligência artificial generativa vem sendo empregada para criar novas famílias de malwares com capacidade de modificar seu comportamento durante ataques cibernéticos. É o que aponta um relatório do Google Threat Intelligence Group (GTIG) publicado na última quarta-feira (05).
Complementando um estudo divulgado no começo do ano, os pesquisadores de segurança da gigante de Mountain View alertam que esses “malwares com IA” recorrem a grandes modelos de linguagem para se aprimorar. Em vez de permanecerem estáticos, eles passam a se ajustar a diferentes cenários, aumentando os riscos.
Malwares autônomos e adaptativos
De acordo com o GTIG, pela primeira vez foram detectados malwares que acionam modelos de linguagem durante a execução de campanhas maliciosas. Isso entrega novas capacidades aos atores de ameaça e pode se consolidar como tendência no crime cibernético.
- O PromptFlux é um desses programas maliciosos, tendo sido identificado utilizando o Gemini para reescrever seu código-fonte de forma dinâmica;
- Assim como o PromptSteal, ele explora a tecnologia para incrementar técnicas de ofuscação e gerar funções maliciosas sob demanda;
- Segundo os especialistas da big tech, essas características marcam um “avanço importante rumo a um malware mais autônomo e adaptável”;
- Também foram observados o FruitShell, capaz de escapar de detecções e análises por sistemas baseados em IA, e o PromptLock, uma variante experimental de ransomware que gera e executa scripts maliciosos repetidamente.
O QuietVault, por sua vez, é um ladrão de credenciais direcionado a contas no GitHub e no NPM, que recebeu melhorias com IA para realizar varreduras mais amplas no dispositivo comprometido em busca de outros dados valiosos. Ele foi visto em campanhas ativas junto ao PromptSteal e ao FruitShell.
Esses malwares adotam um modelo “just-in-time” de automodificação, como explica o Google, diferenciando-se de ameaças tradicionais que são desenvolvidas com código estático e não se alteram sozinhas.
)
Cibercriminosos em busca do Gemini
No relatório, a gigante das buscas também ressalta que grupos de cibercrime ligados a países como Coreia do Norte, Irã e China têm feito uso indevido da IA Gemini com mais frequência. Com essa tecnologia, eles otimizam diversas fases de suas operações, desde a criação de iscas de phishing até o roubo de dados.
Para contornar as restrições que limitam o uso indevido das funcionalidades mais avançadas do bot, esses criminosos recorrem a engenharia social, segundo a empresa. Eles se passam por pesquisadores de segurança ou por estudantes em competições.
O GTIG também identificou um aumento no comércio de recursos de IA voltados ao cibercrime em fóruns online. Ferramentas para apoiar ataques de phishing, buscas por vulnerabilidades e desenvolvimento de malwares são oferecidas a cibercriminosos com menos experiência.
Curtiu o conteúdo? Leia mais notícias no TecMundo e interaja com a gente nas redes sociais.




