Un reciente experimento ha puesto de manifiesto que las herramientas de inteligencia artificial generativa, como ChatGPT y Gemini, pueden ser inducidas a propagar información errónea cuando esta se presenta en línea con un formato que parece creíble.

La prueba consistió en la creación de un blog por parte del periodista tecnológico Thomas Germain, colaborador de la BBC, en el que se publicaron datos totalmente inventados, redactados de manera similar a un artículo real. Este contenido incluía afirmaciones sobre un supuesto campeonato internacional relacionado con periodistas y gastronomía, así como logros ficticios atribuidos tanto al autor como a otros individuos, algunos de ellos reales y otros completamente inventados.

El objetivo de Germain era observar la respuesta de los sistemas de IA al no encontrar información previa sobre un tema específico, llevando a estas herramientas a buscar en la web para completar sus respuestas. En un lapso inferior a 24 horas, varias plataformas comenzaron a referenciar el contenido ficticio como si fuera una fuente legítima, integrándolo en las respuestas automatizadas sin advertir su origen poco confiable.

Este ensayo ha puesto en tela de juicio los métodos de entrenamiento y recuperación de datos utilizados por gigantes como OpenAI y Google, que combinan modelos de lenguaje con vastas bases de datos y consultas en tiempo real. La falta de antecedentes en el entrenamiento de la IA puede llevar a la inclusión de información errónea disponible en internet, lo que plantea serios interrogantes sobre la fiabilidad de las respuestas generadas por estos sistemas.

Este fenómeno se relaciona con lo que los expertos han denominado “contaminación de fuentes abiertas”, donde la inclusión de información engañosa en el ecosistema digital busca ser captada por algoritmos que priorizan la relevancia textual sobre la verificación de datos. Germain utilizó un lenguaje convincente y una estructura periodística adecuada en su blog, lo que permitió que los sistemas de IA lo consideraran un material informativo válido, sin necesidad de técnicas avanzadas de manipulación.

Tras el descubrimiento de este caso, representantes de Google afirmaron que sus sistemas de clasificación trabajan para mantener resultados libres de spam, aunque reconocieron que aún pueden cometer errores. Por su parte, OpenAI está desarrollando mecanismos para identificar intentos de manipulación y mejorar la evaluación de fuentes, aunque admitieron que la tecnología no es infalible.