Gemini menciona o nome completo de uma usuária fora de contexto, revelando uma falha na IA do Google.

Gemini menciona o nome completo de uma usuária fora de contexto, revelando uma falha na IA do Google.

Um incidente envolvendo o chatbot de inteligência artificial (IA) Gemini, do Google, levantou questionamentos sobre privacidade e o funcionamento de modelos generativos depois que um usuário recebeu, sem contexto, o nome completo de uma pessoa real durante uma conversa com a IA. O caso veio à tona no dia 1º de abril e, desta vez, não se tratava de uma brincadeira.

O episódio foi divulgado pela desenvolvedora de software Julia Krisnarane no Twitter (ou X, dependendo da preferência). Segundo ela, um homem até então desconhecido, chamado Lucas Villela, a procurou via LinkedIn para avisar que o Gemini havia mencionado seu nome completo em uma interação. Ele compartilhou o link da conversa, permitindo que Julia conferisse o conteúdo e constatasse que não era uma pegadinha.

smart_display

Nossos vídeos em destaque

“Fiquei apreensiva porque a IA expôs meu nome completo, e meu nome é raro, não haveria outra pessoa igual”, explicou Julia em entrevista ao TecMundo. “Uso o Gemini no plano Pro para estudantes diariamente e também trabalho com tecnologia, então fiquei bem assustada com esse vazamento e me perguntei: o que pode ter acontecido? Por que comigo? E se isso se repetir com outras pessoas e até envolver dados sensíveis?”, afirmou.

A história ganhou atenção porque os dois não tinham vínculo prévio: não residem no mesmo estado, não têm contatos em comum e nunca haviam interagido diretamente. Mesmo assim, o modelo citou corretamente o nome completo de Julia Krisnarane durante uma conversa técnica sobre artigos científicos, embora tenha atribuído a ela a profissão de Lucas.

Depois da publicação, outros usuários relataram episódios parecidos nos comentários: o Gemini chamando pessoas por nomes incorretos, completos ou que pareciam reais. Em comum, as postagens descrevem o mesmo fenômeno: respostas que misturam dados ou identidades — o que, no jargão da IA, costuma ser chamado de “alucinação” — e que nem sempre é inofensivo.

 

O que provoca esse tipo de ‘alucinação’?

Em entrevista ao TecMundo, Lucas Villela, formado em Ciência da Computação pela Unesp e mestrando na UFRGS, disse que o comportamento pode ter várias explicações, nenhuma totalmente tranquilizadora.

Ele ressaltou que modelos de linguagem funcionam com base em probabilidades. “É preciso checar sempre a veracidade das informações que recebemos. O funcionamento de um LLM (sistemas de IA treinados com grandes volumes de texto, como o Gemini) está ligado à previsão da próxima palavra”, explicou. Basicamente, o modelo não “sabe”: ele constrói o texto ao prever, com base em probabilidades, qual será a próxima palavra (e, às vezes, erra).

WhatsApp Image 2026-04-07 at 18.34.11.jpeg

Entre as hipóteses apontadas estão falhas conhecidas, como vazamento indireto de dados de treinamento. “Há uma vulnerabilidade pela qual o modelo pode memorizar dados e reproduzi-los”, explicou. Como esses sistemas são treinados com grandes volumes de conteúdo da internet, nomes reais podem surgir, mesmo quando não deveriam.

Outras possibilidades incluem falhas de “memória” (uma espécie de colisão de dados) ou contaminação entre contextos. Isso poderia acontecer, por exemplo, quando sistemas conectados — como e-mail, navegador e histórico — influenciam as respostas. O próprio Gemini, segundo Lucas, chegou a admitir um “erro sistêmico” quando foi questionado após mencionar o nome de Julia.

WhatsApp Image 2026-04-07 at 18.34.12.jpeg

Posicionamento do Google

Procurado, o Google não comentou diretamente sobre o incidente; em vez disso, encaminhou links para suas páginas públicas sobre privacidade e o funcionamento do Gemini. Segundo a empresa, interações com o assistente, inclusive na versão para estudantes, podem ser usadas para treinar e aperfeiçoar os modelos, com revisão humana em alguns casos.

Como limitar o uso de dados e se proteger ao usar IA

De acordo com o Google, o uso de dados vem ativado por padrão, mas pode ser desativado. Usuários podem impedir que suas conversas sejam utilizadas para treinamento ao desativar a opção Manter atividade nas configurações de privacidade do Gemini.

Ainda assim, a companhia recomenda não inserir informações sensíveis nas interações, nem mesmo com a coleta desligada. Parte dos dados pode ser utilizada para operações básicas do sistema ou para revisões de segurança.

Outra sugestão é usar chats temporários ou revisar permissões de integração com outros serviços, como Gmail, Google Fotos e Chrome. Esses dados podem ser acessados para personalizar respostas — o que traz utilidade, mas também aumenta o risco de exposição em caso de falhas.

E, claro, o mais importante é um princípio básico que voltou a ganhar força na era da IA: desconfie. Modelos podem errar, inventar ou misturar informações e, como demonstra o caso de Julia e Lucas, às vezes acertam até demais.

Plugin WordPress Cookie by Real Cookie Banner
scroll to top