Imagen: fizkes/Shutterstock
Gemini de Google fue el que tuvo peor desempeño: tuvo problemas con el 76% de sus respuestas, según un estudio internacional de emisoras de servicio público.
por Viktor Eriksson
Un nuevo estudio internacional coordinado por la Unión Europea de Radiodifusión (UER) y dirigido por la BBC muestra que los asistentes de IA distorsionan el contenido informativo casi la mitad del tiempo. La investigación incluyó a 22 emisoras públicas en 18 países y 14 idiomas.
En el estudio, periodistas profesionales analizaron más de 3000 respuestas de IA de Chat GPT, Copilot, Gemini y Perplexity. Los resultados mostraron que el 45 % de las respuestas contenía al menos un error grave, el 31 % citaba fuentes de forma inadecuada o engañosa, y el 20 % contenía errores factuales importantes, como detalles inventados o información obsoleta.
Gemini de Google fue el que tuvo peor desempeño, con problemas en el 76% de sus respuestas, principalmente debido a la falta de atribución de la fuente.
“Esta investigación demuestra de forma concluyente que estas deficiencias no son incidentes aislados”, declaró Jean Philip De Tender, director de medios y director general adjunto de la UER, en un comunicado . “Son sistemáticas, transnacionales y multilingües, y creemos que esto pone en peligro la confianza pública. Cuando la gente no sabe en qué confiar, acaba por no confiar en nada, y eso puede desincentivar la participación democrática”.
Como parte del proyecto, la UER y la BBC han lanzado un “Kit de herramientas para la integridad de las noticias en los asistentes de IA” para ayudar a los desarrolladores y usuarios de IA a mejorar la calidad de las respuestas y aumentar la alfabetización mediática.
Las organizaciones también pidieron a la UE y a las autoridades nacionales que apliquen las normas existentes sobre integridad de la información, servicios digitales y pluralismo de los medios, e introduzcan una revisión independiente y continua de los asistentes de IA.
Open AI, Microsoft, Google y Perplexity AI aún no han hecho comentarios sobre el estudio.
Fuente: https://www.computerworld.com/article/4077344/ai-chatbots-are-wrong-about-news-45-of-the-time.html