¡Hola NewsAmigos! 🤖💥 ¿Alguna vez le pediste a tu asistente de IA las últimas noticias? Podrías llevarte una sorpresa—una nueva investigación muestra que casi la mitad de las respuestas generadas por la IA tienen errores importantes.
La Unión Europea de Radiodifusión (EBU) y la BBC se unieron para analizar 3,000 respuestas de los principales asistentes de IA como ChatGPT, Copilot, Gemini y Perplexity, en 14 idiomas diferentes. ¿Y adivina qué? ¡El 45% de esas respuestas contenían al menos un problema significativo, mientras que un asombroso 81% tenía algún tipo de error!
¿Por qué esto importa? A medida que más jóvenes menores de 25 años recurren a la IA en lugar de Google para obtener noticias (ya lo hace alrededor del 15%), la confianza en estos asistentes está tomando gran relevancia. Si la mitad de la información es incorrecta, podría sacudir nuestra confianza en los medios e incluso afectar la participación democrática. 😬
Errores de fuentes y alucinaciones
Un tercio de las respuestas tenía serios errores de atribución—fuentes omitidas o atribuciones equivocadas. Gemini lideró con un 72% de problemas importantes de fuentes, en comparación con menos del 25% para otras herramientas. Algunos errores fueron sorprendentes, como leyes desactualizadas sobre cigarros electrónicos desechables o reportar que el Papa Francisco estaba vivo meses después de haber fallecido.
Advertencia de la EBU:
Cuando las personas no saben en qué confiar, terminan por no confiar en nada en absoluto.
Así que la próxima vez que hables con tu IA, toma sus noticias con escepticismo. Y mantente pendiente—la IA está aprendiendo rápido y la próxima actualización podría mejorarla (¡crucemos los dedos! 🤞).
Reference(s):
New research shows AI assistants make widespread errors about the news
cgtn.com




