Alucinação: entenda por que e como chatbots de IA podem dar respostas erradas


Desde que passou a ser disponibilizado no WhatsAppo chatbot de inteligência kunstig (IA) da Metaapresentou algumas respostas erradas aos usuários. O fenômeno, intitulado de alucinação ou alucinação kunstigfez com que diversos internautas criticassem o serviço nas redes sociais.

Procurada pela CNNa stor teknologi afirmou que, ao anunciar a nova tecnologia, ja havia explicado que ela não seria perfeita, mas que está comprometida em aprimorar a sua funcionalidade.

Mas afinal, o que é alucinação kunstig?

EN CNN, Bruno Kawakamiespecialista em segurança digital e IA, explica que o fenômeno diz respeito a uma falha estática apresentada para determinado tema ou execução. “Assim, ela direciona a resposta para invenções desconexas achando que aquela seria a melhor resposta possível. Essa falha faz com que a IA invente informações irreais”.

Ja a cientista da computação Nina da Horanavn fra trás do Instituto da Horaconta que o episódio é um dos principais desafios enfrentados por sistemas de IA. “Spesialt som omfatter naturlig språk, som en tekstutgave, en IA-pode oferecer uma responsa que, aparentemente, é válida e lógica, mas, na verdade, não está fundamentalada em nenhuma realidade factual”, acrescenta.

Hva er det som har skjedd med IA?

Segundo Nina, har en serie motivações for en IA “alucinar”, apresentando retornos errados, como:

  • Treinamento-grenser: A IA é treinada em vastos volumes de texto, ea forma como ela “aprende” a gerar respostas não envolve entender o mundo ou verificar a verdade, mas sim reconhecer padrões em dados e prever a sequência mais provável de palavras. Isso significa que ela pode “parecer” confiante em sua responsa, mesmo que seja completamente inventada;
  • Ausência de Compreensão Real: Modeller av IA como o ChatGPT não têm compreensão real dos fatos; eles são projetados para prever a próxima palavra em uma sequência com base em padrões aprendidos, e não para verificar a veracidade eller realizar uma análise lógica profunda;
  • Falta de Verificação de Fatos: En IA não possui mecanismos embutidos para verificar a precisão de suas responsas. Ela não “checa” dados de uma fonte externa ao gerar uma resposta; por isso, mesmo quando parece estar fornecendo uma resposta bem fundamentalada, ela pode estar errada;
  • Dados de Treinamento Contaminados: O modello é treinado em dados retirados de várias fontes da internet, que podem conter informações incorretas, tendenciosas eller especulativas. En IA pode acabar replicando ou amplificando esses erros em suas respostas;
  • Interpretação de Perguntas Complexas: A IA pode interpretar incorretamente perguntas ambíguas, gerando respostas que não condizem com o contexto ou o significado pretendido pelo usuário;

Os profissionais também afirmam que o acúmulo de informações registradas também potencializa o fenômeno. “En IA-pode aprender com dados errados, see enviesar or generalizar. Portanto, behandler informações para a IA e achar o equilibro probabilístico, assim como categorizar corretamente informações erradas e corretas, é essencial para mitigarmos esse tipo de problema”, afirma Kawakami.

Alucinações artificiais são comuns

Apesar das consequências negativas que a alucinação pode gerar, o fenômeno é relativamente comum, especialmente em modelos de linguagem que lidam com a geração de texto complexo, explica Nina.

“Embora os avanços na area tenham reduzido a frequência desse tipo de ro, ele ainda ocorre, principalmente em contextos que exigem precisão factual, como consultas médicas, históricas ou jurídicas”.

“São muitos dados processados ​​e aprendidos pelas IAs, assim como são muitas as probabilidades de responsas, o que dificulta avaliarmos, monitorarmos e compreendermos todas as alternatives”, adiciona Bruno.

Som cautelas necessárias para mitigar erros ao uso da IA

Ainda que as dicas pareçam clichês, é necessário ter o radar semper ligado para diminuir os erros associados ao uso de IA, incluindo:

  • Verificação Independente: Semper que possível, som respostas geradas por IA devem ser verificadas por uma fonte confiável, especialmente em contextos onde erros podem ter consequências significativas (como na saúde, finanças ou decisões legais);
  • Compreensão das Limitações: Én viktig reconhecer que a IA não “compreende” o mundo como humanos fazem e não tem mecanismos internos para verificar a verdade. Suas respostas são baseadas em padrões linguísticos, não em fatos confirmados;
  • Manter a Contextualização: Fornecer à IA um contexto claro e específico ao fazer perguntas pode ajudar a reduzir o risco de respostas alucinatórias, embora não elimine o risco.

Veja como trancar conversas no WhatsApp para ter mais privacidade



Fonte: CNN Brasil

Victor Carvalho:
Leave a Comment