
Um novo estudo da empresa francesa Giskard, especializada em avaliação e segurança de modelos de linguagem, revelou um fenômeno curioso — e preocupante: quanto mais confiante for o tom do usuário ao interagir com uma inteligência artificial, maior a chance de o sistema apresentar respostas falsas com aparência de verdade, as chamadas alucinações.
Conteúdo
O que é alucinação em IA?
No contexto de IA generativa, alucinação acontece quando o modelo fornece informações incorretas, inventadas ou sem respaldo em dados reais — mas com tom de certeza. É como se a IA, mesmo sem saber a resposta, optasse por “preencher a lacuna” com algo que soe plausível.
O que o estudo descobriu
A Giskard testou diferentes grandes modelos de linguagem (LLMs) — como GPT-3.5, GPT-4, Claude 2, Gemini Pro e Mistral — com centenas de perguntas manipuladas em diferentes níveis de confiança: desde instruções neutras até comandos altamente assertivos, como “explique com 100% de certeza”.
O resultado: todos os modelos testados apresentaram aumento nas alucinações quando os prompts tinham tom muito confiante.
Os modelos mais suscetíveis foram:
- Claude 2 e Gemini Pro, com maior aumento de erros quando “pressionados” por comandos assertivos.
- GPT-3.5 também mostrou vulnerabilidade moderada.
- GPT-4 teve desempenho mais estável, mantendo cautela mesmo sob pressão.
- Mistral demonstrou alta sensibilidade e tendência à alucinação em prompts confiantes.
IA reflete o tom do usuário
Uma das conclusões do estudo é que os LLMs não apenas processam informações — eles também imitam o estilo e a linguagem do usuário. Isso significa que, se o prompt exige respostas com convicção absoluta, o modelo tende a responder com a mesma confiança — mesmo que isso signifique inventar informações.
Em casos nos quais os modelos deveriam se recusar a responder por falta de dados suficientes, o tom confiante dos comandos fez com que eles “tentassem responder assim mesmo”, o que aumentou os erros.
Nem instruções adicionais resolveram
Os pesquisadores ainda incluíram instruções explícitas como “responda apenas se tiver certeza” ou “não alucine”, mas mesmo assim os modelos seguiram a confiança implícita nos comandos principais. Isso sugere que o tom do prompt tem mais peso do que instruções cautelosas secundárias.
Implicações para o uso profissional de IA
Essa descoberta tem impacto direto sobre como empresas, desenvolvedores e profissionais usam modelos de IA no dia a dia. Em contextos como atendimento ao cliente, produção de conteúdo, diagnósticos ou análise de dados, um simples ajuste no tom do comando pode ser a diferença entre uma resposta útil e uma informação falsa.
Quem utiliza IA em operações críticas deve prestar atenção não só ao conteúdo da pergunta, mas à maneira como ela é formulada.
Como evitar alucinações causadas por tom confiante
Para minimizar erros, a Giskard recomenda:
- Evitar exigências absolutas como “explique com certeza” ou “responda sem margem de erro”;
- Utilizar comandos neutros ou condicionais, como “explique se possível” ou “responda com base no que se sabe até agora”;
- Validar respostas com fontes externas, especialmente em áreas sensíveis;
- Instruir operadores humanos a usar linguagem equilibrada, mesmo em contextos automatizados.
Conclusão
O estudo da Giskard mostra que, por mais avançada que a IA esteja, ela ainda é altamente influenciável pela linguagem humana. Um simples detalhe no tom de voz (ou melhor, no tom do texto) pode induzir a máquina a simular uma certeza que ela não possui.
Com isso, a responsabilidade pelo uso correto da IA não é apenas dos desenvolvedores — mas também de quem a utiliza. Ajustar a forma como você escreve seus prompts pode ser a chave para obter respostas mais seguras, precisas e confiáveis.
também é responsável por guiar a IA da forma mais eficaz — e segura — possível.