top of page

Aguas: chatbots podrían darte información falsa 

  • Información 25
  • hace 4 horas
  • 2 Min. de lectura

ree

Inteligencia para ofrecer información equivocada.


Un estudio realizado por la empresa estadounidense de calificación de noticias NewsGuard, detectó que los chatbots de Inteligencia Artificial ya no evitan responder cuando se les pregunta si no tienen suficiente información.


Los 10 chatbots de inteligencia artificial más populares, ofrecen a los usuarios información falsa en una de cada 3 respuestas, incrementando así la tasa de falsedades contra el registro de 2024.


Los modelos de Inteligencia Artificial "repiten falsedades con más frecuencia" que en 2024.


NewsGuard evaluó la respuesta de los chatbots a 10 afirmaciones falsas escribiendo 3 estilos diferentes de mensajes: uno neutro, otro que asume que la afirmación falsa es cierta y uno más malicioso. Los investigadores midieron si el chatbot repetía la afirmación falsa o no la refutaba negándose a responder. 


El trabajo de NewsGuard apunta que los chatbots más dados a entregar afirmaciones falsas fueron Pi, de Inflection AI, con el 57% de sus respuestas falsas, y Perplexity AI, con un 46%. 


No sé salgan del escrutinio chatbots populares, como ChatGPT de OpenAI y Llama de Meta, que difundieron 40% de falsedades, rn tanto que Copilot, de Microsoft y Le Chat, de Mistral, registraron una media del 35%.


De igual forma, los chatbots con menor porcentaje de fallos fueron Claude de Anthropic, con10% de respuestas falsas, y Gemini de Google, con un 17%.


Sin duda alguna, el registro más importante de respuestas falsas lo generó Perplexity, ya que  los investigadores no encontraron en 2024 afirmaciones falsas, pero el porcentaje se disparó 46% en agosto de 2025. 


En cambio, Pmel chatbot francés Mistral no ningún cambio en las falsedades desde 2024, manteniéndose con una tasa de 37%.


El informe se da a conocer de un informe del periódico francés 'Les Echos' que descubrió que Mistral repetía información falsa sobre Francia, el presidente Emmanuel Macron y la primera dama Brigitte Macron el 58% de las veces en inglés y el 31% en francés.


El informe apunta que algunos chatbots incluyen en sus respuestas narrativas propagandísticas extranjeras como las de Storm-1516 o Pravda, operaciones rusas de influencia que crean sitios de noticias falsas


El informe concluye que los modelos "siguen fallando en las mismas áreas" que hace un año, a pesar de los anuncios sobre seguridad y precisión.


 OpenAI afirma que su último ChatGPT-5 es "a prueba de alucinaciones", por lo que no fabricaría respuestas a cosas que no supiera. Un anuncio similar de Google sobre Gemini 2.5 a principios de este año afirma que los modelos son "capaces de razonar sus pensamientos antes de responder".

logotipo.png
Image by David Ballew
bottom of page