Google alerta: malwares usam IA generativa para se aprimorar

Google alerta: malwares usam IA generativa para se aprimorar

A inteligência artificial generativa vem sendo empregada para criar novas famílias de malwares com capacidade de modificar seu comportamento durante ataques cibernéticos. É o que aponta um relatório do Google Threat Intelligence Group (GTIG) publicado na última quarta-feira (05).

Complementando um estudo divulgado no começo do ano, os pesquisadores de segurança da gigante de Mountain View alertam que esses “malwares com IA” recorrem a grandes modelos de linguagem para se aprimorar. Em vez de permanecerem estáticos, eles passam a se ajustar a diferentes cenários, aumentando os riscos.

Malwares com IA exibem capacidades expandidas. (napong rattanaraktiya/Getty Images)

Malwares autônomos e adaptativos

De acordo com o GTIG, pela primeira vez foram detectados malwares que acionam modelos de linguagem durante a execução de campanhas maliciosas. Isso entrega novas capacidades aos atores de ameaça e pode se consolidar como tendência no crime cibernético.

  • O PromptFlux é um desses programas maliciosos, tendo sido identificado utilizando o Gemini para reescrever seu código-fonte de forma dinâmica;
  • Assim como o PromptSteal, ele explora a tecnologia para incrementar técnicas de ofuscação e gerar funções maliciosas sob demanda;
  • Segundo os especialistas da big tech, essas características marcam um “avanço importante rumo a um malware mais autônomo e adaptável”;
  • Também foram observados o FruitShell, capaz de escapar de detecções e análises por sistemas baseados em IA, e o PromptLock, uma variante experimental de ransomware que gera e executa scripts maliciosos repetidamente.

O QuietVault, por sua vez, é um ladrão de credenciais direcionado a contas no GitHub e no NPM, que recebeu melhorias com IA para realizar varreduras mais amplas no dispositivo comprometido em busca de outros dados valiosos. Ele foi visto em campanhas ativas junto ao PromptSteal e ao FruitShell.

Esses malwares adotam um modelo “just-in-time” de automodificação, como explica o Google, diferenciando-se de ameaças tradicionais que são desenvolvidas com código estático e não se alteram sozinhas.

celular-com-simbolo-de-caveira
O Google prevê que o uso de IA no cibercrime tende a crescer nos próximos anos. (Imagem: Saulo Angelo/Getty Images)

Cibercriminosos em busca do Gemini

No relatório, a gigante das buscas também ressalta que grupos de cibercrime ligados a países como Coreia do Norte, Irã e China têm feito uso indevido da IA Gemini com mais frequência. Com essa tecnologia, eles otimizam diversas fases de suas operações, desde a criação de iscas de phishing até o roubo de dados.

Para contornar as restrições que limitam o uso indevido das funcionalidades mais avançadas do bot, esses criminosos recorrem a engenharia social, segundo a empresa. Eles se passam por pesquisadores de segurança ou por estudantes em competições.

O GTIG também identificou um aumento no comércio de recursos de IA voltados ao cibercrime em fóruns online. Ferramentas para apoiar ataques de phishing, buscas por vulnerabilidades e desenvolvimento de malwares são oferecidas a cibercriminosos com menos experiência.

Curtiu o conteúdo? Leia mais notícias no TecMundo e interaja com a gente nas redes sociais.

Plugin WordPress Cookie by Real Cookie Banner
scroll to top