O ChatGPT mente? Aprenda a evitar as alucinações de IA
Muita gente não sabe, mas, o ChatGPT, às vezes, alucina - mas, dá para evitar isso
Por Da Redação.
Muita gente não sabe, mas, o ChatGPT, às vezes, alucina. A chamada “alucinação” da inteligência artificial (IA) é um fenômeno em que grandes modelos de linguagem — como chatbots de IA generativa ou ferramentas de visão computacional — geram saídas incorretas ou sem sentido ao identificarem padrões ou objetos inexistentes, imperceptíveis para observadores humanos. Aprenda, ao longo desta matéria, a evitar que a IA alucine.
+ Seu celular pode estar sendo espionado: saiba como descobrir
+ Como fazer a bateria do celular durar mais: 10 dicas simples
E isso acontece por um motivo, de acordo com o próprio ChatGPT: "Alucinar significa que eu posso gerar uma resposta que parece plausível, bem escrita e confiante, mas que é falsa, imprecisa ou inventada. Isso acontece quando eu preencho lacunas com base em padrões de linguagem, mesmo que a informação real não exista ou não seja aquilo".
Exemplo simples de alucinação - segundo o ChatGPT:
"Se você me perguntar:
Chat, quem ganhou o Oscar de Melhor Filme em 2025?
Se eu não tiver acesso a dados atualizados (ou se você me perguntar offline), posso inventar uma resposta plausível com base em padrões passados, tipo:
O vencedor foi 'The Marvels 2', dirigido por Taika Waititi.
Mesmo que esse filme nem exista ou nunca tenha ganhado o Oscar".
Como evitar alucinações?
Sem pânico: a gente sabe que inteligência artificial se tornou aliada na rotina de muita gente, por isso, é importante aprender a evitar essas alucinações.
Peça respostas com mais segurança:
-
Peça fontes ou links sempre que for algo factual ou recente:
Exemplo:
"Chat, só me responda com fonte confirmada. Quem é o presidente dos EUA em junho de 2025?"
Se a ferramenta web estiver ativa, a IA buscar na hora. Se não tiver, ela vai te avisar.
-
Use comandos como:
-
"Chat, só me responda se tiver 100% de certeza".
-
"Chat, só quero fatos verificados. Se não souber, diga que não sabe".
-
"Por favor, evite gerar respostas baseadas em padrões. Me diga apenas o que é comprovado".
Isso ativa um modo em que a IA mais conservadora e evita preencher lacunas.
-
Se for um tema sensível, especifique:
Exemplo:
"Chat, isso é informação confirmada por fontes externas ou é só geração de linguagem baseada no treinamento?".
-
Se quiser, peça sempre que a IA use a Web quando disponível:
Exemplo:
"Chat, use a ferramenta web e me dê uma resposta atualizada sobre esse assunto".
-
Se for uma dúvida de contexto histórico, peça a data da informação:
Exemplo:
"Chat, de qual ano é essa informação?".
"Isso ainda é verdade em 2025?".
Ou seja: não precisa ter medo da IA, mas, nunca confie nela cegamente. É sempre importante checar as fontes antes de espalhar alguma informação por aí!
Siga a gente no Insta, Facebook, Bluesky e X. Envie denúncia ou sugestão de pauta para (71) 99940 – 7440 (WhatsApp).