Según varios estudios, cada vez más personas recurren a ChatGPT y otras inteligencias artificiales como si fueran un motor de búsqueda. Este fenómeno es especialmente marcado entre los jóvenes, un grupo demográfico que, sin duda, hará sonreír a Sam Altman, CEO de OpenAI. Sin embargo, un informe reciente ha expuesto lo que muchos temían: no todo lo que la inteligencia artificial produce es veraz.
Peligro de los fallos técnicos en la IA
El problema no radica solo en sesgos o malintencionados engaños. Más bien, se trata de fallos técnicos que, por lo general, resultan ser más serios de lo que uno podría imaginar. En concreto, casi la mitad de las respuestas generadas por distintos chatbots incluyen errores, y muchos de ellos son de considerable importancia, según los investigadores que llevaron a cabo un estudio exhaustivo.
Este examen fue realizado por la European Broadcasting Union (EBU) en colaboración con la BBC, con el propósito de valorar la fiabilidad de la inteligencia artificial en la transmisión de noticias. Analizaron 3,000 respuestas de ChatGPT, así como de otros chatbots populares como Copilot, Gemini y Perplexity. Lo sorprendente es que no solo se evaluó el rendimiento en inglés, sino en un total de 14 idiomas diferentes, lo que resalta la amplitud del análisis.
Los investigadores querían comprender la capacidad de la IA para diferenciar entre hechos y opiniones aquel rasgo que, al menos en teoría, debería definir una noticia de forma objetiva. También se prestó atención a la calidad de las fuentes utilizadas por la inteligencia artificial.
Mitad de las respuestas con errores
Los resultados fueron alarmantes. El 45% de las respuestas contenían al menos un error significativo, y un asombroso 81% de ellas tenían algún tipo de fallo. En estos últimos casos, aunque los errores no eran tan graves, siguen siendo errores, lo que llevó a los autores a la conclusión de que usar la IA como fuente de información sobre la actualidad puede no ser la mejor idea.
En muchos casos, los errores se debían a información desactualizada. Por ejemplo, ChatGPT declaró que el actual Papa era Francisco, meses después de su fallecimiento. En el caso de Gemini, la inteligencia artificial de Google, el 72% de las respuestas fallaron en identificar correctamente las fuentes; en algunos casos, simplemente faltaban, y en otros, estaban equivocadas. Este patrón se repetía con otros chatbots analizados.
Creciente uso de la IA como fuente de información
Un dato a considerar que surgió en el mencionado estudio es el creciente uso de IA como fuente de información. Se estima que entre un 7 y un 27% de las personas, dependiendo de su edad, recurren a estas herramientas. Es una tendencia que parece estar en ascenso, y si la popularidad de la IA continúa, este número podría aumentar aún más en los próximos años.
Jean Philip De Tender, director de medios de la EBU, advirtió que esto representa un “peligro democrático”. Si la confianza de la gente, que ya está disminuida en la actualidad, llega a desvanecerse completamente, corremos el riesgo de que ya no confíen en nada.
En una era donde la desinformación y la manipulación son comunes, es esencial que mantengamos un pensamiento crítico y no dejemos que la conveniencia de la inteligencia artificial reemplace nuestra necesidad de información precisa y confiable.






























