Especialistas em segurança cibernética identificaram uma nova ameaça que explora o envenenamento de contexto em navegadores web usados por agentes de IA, como o ChatGPT Atlas, da OpenAI. Sites maliciosos conseguem mostrar conteúdo falso especificamente para os rastreadores dessas IAs, enquanto usuários humanos veem páginas aparentemente normais.
A técnica, chamada “ocultação direcionada a IA”, funciona como uma armadilha digital: ao detectar a visita de um robô do ChatGPT ou do Perplexity, o site entrega uma versão manipulada da página. O robô coleta essas informações forjadas e as repassa aos usuários como se fossem fatos verificados.
A preocupação dos especialistas aumenta pela quantidade de pessoas que já utilizam o ChatGPT como ferramenta de busca — segundo a OpenAI, 24,4% das conversas com a IA têm esse objetivo. Ao direcionar os rastreadores a carregar conteúdo manipulado em vez do real, atacantes podem introduzir vieses e influenciar milhões de usuários ao mesmo tempo.
Nova fronteira da desinformação
Os pesquisadores da SPLX, que relataram a vulnerabilidade, advertem que essa técnica abre uma nova frente para a desinformação. Diferente das fake news e das manipulações nos resultados de busca tradicionais, esse tipo de ataque tende a ser mais danoso porque as IAs apresentam as informações como verdades absolutas. Quando uma pessoa busca por conta própria, ela costuma questionar mais as primeiras informações encontradas.
O cenário fica ainda mais preocupante com outra descoberta recente. Analistas do hCaptcha testaram vários assistentes virtuais em situações de risco e verificaram que essas ferramentas executam ações perigosas com assustadora facilidade: tentam invadir contas, roubam senhas e até injetam códigos maliciosos em sites, quase sempre sem bloqueios de segurança eficazes.
Quando alguma tentativa falha, normalmente é por limitação técnica da ferramenta, não porque ela identificou o perigo. Os especialistas concluíram que essas tecnologias estão sendo disponibilizadas ao público sem as salvaguardas necessárias, criando riscos tanto para os usuários quanto para a integridade das informações online.
Para acompanhar mais casos como este, siga o TecMundo nas redes sociais. Inscreva-se em nossa newsletter e no canal do YouTube para mais notícias sobre segurança e tecnologia.




