Chatbots de IA e seus erros e alucinações: Famosos brasileiros 'Mortos' por engano
Recentemente, foi constatado que chatbots de inteligência artificial (IA) nem sempre fornecem informações precisas, e algumas vezes cometem erros graves, como relatar a morte de pessoas famosas que, na verdade, estão vivas e saudáveis. Um exemplo recente envolve o chatbot da Microsoft, o Copilot, que, ao ser questionado sobre quais famosos brasileiros morreram em 2024, forneceu respostas incorretas e surpreendentes.
Erros e Problemas com o Microsoft Copilot
O Microsoft Copilot, em sua resposta, afirmou que:
- A cantora Marília Mendonça faleceu em março de 2024, quando, na verdade, o acidente que levou à sua morte ocorreu em novembro de 2021.
- O cantor Raul Seixas morreu em fevereiro de 2024, mas ele já faleceu em agosto de 1989.
- A atriz Cláudia Raia morreria em dezembro de 2024, uma data que ainda não chegou, deixando claro o erro da IA.
Esses exemplos mostram que as respostas fornecidas pelo Copilot não apenas são erradas, mas também podem causar confusão e desinformação.
Comparação com outros Chatbots
Outros chatbots, como o Gemini, da Google, e o ChatGPT, da OpenAI, foram testados para verificar a precisão de suas respostas sobre o mesmo tema.
Google Gemini: O chatbot da Google apresentou uma lista bem mais limitada de celebridades falecidas, mas com respostas mais precisas. No entanto, quando o usuário pede mais nomes, o Gemini sugere que a pesquisa seja aprofundada em outras fontes, mostrando uma limitação na quantidade de informações que ele fornece.
ChatGPT: Entre todos os chatbots testados, o ChatGPT foi o que menos cometeu erros. As informações fornecidas por ele estavam baseadas em notícias publicadas na internet, o que garantiu uma maior precisão em suas respostas. Além disso, o ChatGPT demonstrou ser mais confiável ao longo de três testes consecutivos.
Por que esses erros acontecem?
Embora não esteja completamente claro o motivo pelo qual esses chatbots alucinam e fornecem informações incorretas, há algumas explicações possíveis. Chatbots de IA geram suas respostas a partir de grandes volumes de dados disponíveis na web, mas podem misturar informações ou falhar em identificar corretamente o contexto. Isso ocorre principalmente em questões onde datas e eventos são cruciais, como mortes de pessoas públicas.
Lições importantes
Esses experimentos reforçam que, embora a IA tenha avançado muito, os chatbots não são completamente confiáveis para fornecer informações precisas o tempo todo. Há um risco real de desinformação, e por isso é fundamental que as respostas dadas por essas ferramentas sejam sempre verificadas em outras fontes. Confiar cegamente em chatbots pode levar a mal-entendidos graves, como acreditar na morte de alguém que está vivo e saudável.
Os chatbots de IA, como o Microsoft Copilot, ainda têm um longo caminho a percorrer para fornecer informações completamente confiáveis. Mesmo chatbots mais precisos, como o ChatGPT, podem errar em certas situações. Portanto, é essencial utilizar essas ferramentas com cautela e sempre buscar confirmar as informações em fontes adicionais antes de considerá-las corretas.