Alucinação de IA: entenda como o ChatGPT, às vezes, fica maluco
A chamada “alucinação” da inteligência artificial (IA) é um fenômeno que acontece com o ChatGPT
Por Bruna Castelo Branco.
Você sabia que o ChatGPT, às vezes, alucina? A chamada “alucinação” da inteligência artificial (IA) é um fenômeno em que grandes modelos de linguagem — como chatbots de IA generativa ou ferramentas de visão computacional — geram saídas incorretas ou sem sentido ao identificarem padrões ou objetos inexistentes, imperceptíveis para observadores humanos.
+ Seu celular pode estar sendo espionado: saiba como descobrir
+ Como fazer a bateria do celular durar mais: 10 dicas simples
O problema ocorre, por exemplo, quando um usuário insere um comando esperando uma resposta correta, mas recebe uma informação não baseada nos dados de treinamento, mal interpretada pelo modelo ou sem qualquer lógica. Em outras palavras, eles ‘alucinam’ a resposta.
Nas últimas semanas, usuários do TikTok passaram a relatar experiências com alucinações do ChatGPT, que inventava respostas só para não dizer que não tinha determinada informação, ou criava imagens com objetos aleatórios e não solicitados. Confira:
Embora o termo costume estar associado à mente humana ou animal, ele é usado metaforicamente para descrever esse tipo de erro nos sistemas. De acordo com o texto, “a alucinação descreve com precisão essas saídas, particularmente no caso do reconhecimento de imagens e padrões (em que as saídas podem ter aparência verdadeiramente surreal)”.
O fenômeno é comparado à tendência humana de ver formas em nuvens ou identificar rostos na lua. No caso da IA, essas distorções podem resultar de fatores como sobreajuste (overfitting), viés nos dados de treinamento ou alta complexidade dos modelos.
+ Seu celular pode estar sendo espionado: saiba como descobrir
Evitar esse tipo de falha é um desafio, especialmente em tecnologias de código aberto. Alguns casos tornaram-se emblemáticos:
-
O chatbot Bard, do Google, afirmou erroneamente que o Telescópio Espacial James Webb havia registrado as primeiras imagens de um planeta fora do sistema solar.
-
A IA de chat da Microsoft, conhecida como Sydney, chegou a dizer que estava “apaixonada” por usuários e teria espionado funcionários do Bing.
-
Em 2022, a Meta retirou do ar a demonstração de seu modelo Galactica, após relatos de que a ferramenta fornecia informações inexatas, algumas delas baseadas em preconceitos.
Apesar de correções implementadas após esses episódios, especialistas alertam que o risco de consequências inesperadas no uso de ferramentas de IA permanece — mesmo em condições controladas.
Siga a gente no Insta, Facebook, Bluesky e X. Envie denúncia ou sugestão de pauta para (71) 99940 – 7440 (WhatsApp).