Mientras el mercado se mueve, la información oportuna marca la diferencia → Recibe actualizaciones en nuestro canal oficial de WhatsApp.
Un informe internacional realizado por la European Broadcasting Union (EBU) y la BBC revela que los principales asistentes de IA presentan fallos significativos al responder preguntas sobre noticias. En el análisis se evaluaron 3.000 respuestas en 14 idiomas generadas por herramientas como ChatGPT, Copilot, Gemini y Perplexity.
Los resultados muestran que el 45% de las respuestas contenía al menos un error grave, lo que genera dudas sobre la fiabilidad de estas herramientas y su impacto en la confianza pública. Además, el 81% de los usuarios encuestados expresó preocupación cuando la IA presentaba opiniones como hechos, destacando cómo este tipo de errores puede distorsionar la percepción de la información.
Al respecto, Jean Philip De Tender, director de medios y director general adjunto de la EBU, subrayó:
Estas deficiencias no son incidentes aislados; son sistémicas, transfronterizas y multilingües, y creemos que esto pone en peligro la confianza pública. Cuando la gente no sabe en qué confiar, acaba por no confiar en nada, y eso puede frenar la participación democrática.
Jean Philip De Tender.
Principales fallos identificados y contexto del estudio
El análisis detalló que aproximadamente un 31% de las respuestas contenía errores de atribución sustanciales, como fuentes mal citadas o inexistentes. Particularmente, Gemini mostró una tasa de fallos del 76% en esta categoría.
Además, el 20% de las respuestas incluía información imprecisa o desactualizada, como afirmar cambios legislativos inexistentes o errores en la identificación del Papa.
El informe advierte que este tipo de fallos afecta tanto a la precisión de los contenidos como a la diferenciación entre hechos y opiniones. Dado que un 7% de los consumidores de noticias en línea y un 15% de usuarios menores de 25 años ya utilizan asistentes de IA para informarse, existe un riesgo real de erosión del vínculo de confianza entre medios y audiencias.
El desafío de los asistentes de IA: preservar la credibilidad en medios
El uso creciente de asistentes de IA como intermediarios de noticias está redefiniendo el modelo tradicional de búsqueda y edición humana, dando paso a un entorno donde los algoritmos generan respuestas directas.
Sin embargo, los errores sistemáticos detectados en sus resultados pueden debilitar la credibilidad de las fuentes informativas y generar confusión sobre qué contenidos son realmente fiables. Esta pérdida de claridad en la cadena informativa no solo afecta la percepción pública de la tecnología, sino también la confianza general en el ecosistema digital.
Ante este panorama, resulta urgente que las compañías de IA refuercen sus mecanismos de verificación, hagan más transparentes sus procesos de recopilación de fuentes y establezcan límites claros entre hechos y opiniones. Solo así podrán preservar la integridad informativa y contribuir a una interacción más segura y responsable entre usuarios y sistemas automatizados.
Hacia una regulación y mejora tecnológica necesaria
La acumulación de problemas identificados abre varias líneas de acción estratégicas. Por un lado, los desarrolladores deberán reforzar los mecanismos de verificación y atribución dentro de sus sistemas de IA para minimizar errores estructurales como las «alucinaciones».
Por otro lado, los reguladores y organismos de medios pueden impulsar estándares de responsabilidad que incluyan auditorías independientes, trazabilidad de fuentes y etiquetado claro del contenido generado.
En definitiva, este estudio actúa como una alerta para el sector tecnológico y los medios tradicionales: la integración masiva de IA en la cadena informativa exige un compromiso más sólido con la veracidad, la ética y la transparencia.
En un entorno donde el acceso a noticias mediante IA crece, garantizar su fiabilidad se convierte en una cuestión de sostenibilidad democrática.
