La creciente dependencia de los chatbots para obtener información científica y médica ha generado preocupación entre expertos, quienes advierten sobre la limitada capacidad de estos sistemas para juzgar la veracidad de las afirmaciones. Un reciente estudio ha calificado la precisión de la inteligencia artificial (IA) en este ámbito con una sorprendente nota de "D", lo que indica que su rendimiento es insuficiente y plantea serios interrogantes sobre su fiabilidad.

Investigadores de la Universidad Estatal de Washington realizaron un análisis exhaustivo de la capacidad de ChatGPT para evaluar más de 700 afirmaciones científicas, donde se descubrió que su tasa de aciertos apenas superaba un 60% en comparación con las conjeturas aleatorias. Esta cifra es alarmante, considerando que, para muchos usuarios, el chatbot se presenta como una fuente de información precisa y confiable. Tal como lo expresó el investigador principal, Mesut Cicek, esta situación resalta la inconsistencia inherente a las respuestas proporcionadas por la IA, que tienden a variar incluso al repetir las mismas preguntas.

Cicek destacó que, al utilizar diez preguntas idénticas, las respuestas de ChatGPT fluctuaban entre verdadero y falso, lo que no solo compromete la confianza en la herramienta, sino que también invita al usuario a cuestionar la validez de la información que recibe. Esta inestabilidad sugiere que, a pesar de la apariencia de fluidez y coherencia en el lenguaje de la IA, esta carece de una comprensión profunda de los conceptos involucrados, lo que limita su capacidad para razonar de manera efectiva sobre temas complejos.

El estudio también reveló que, aunque el sistema de IA alcanzó un 80% de precisión en un primer análisis, esta cifra se desplomó al considerar la probabilidad de respuestas aleatorias. Esto indica que, al menos en ciertas circunstancias, el rendimiento de ChatGPT puede ser engañosamente alto, llevando a los usuarios a confiar en información que podría no ser fidedigna. La conclusión a la que llegaron los investigadores es clara: es fundamental adoptar un enfoque crítico al utilizar la inteligencia artificial, especialmente en áreas que requieren un análisis profundo y matices significativos.

La capacidad de la IA para generar respuestas que suenan convincentes puede llevar a la desinformación, ya que puede ofrecer argumentos persuasivos que, aunque incorrectos, podrían convencer a quienes se basan en sus respuestas. Esto plantea un desafío ético y práctico, dado que los usuarios podrían no estar preparados para identificar los errores o contradicciones en las respuestas proporcionadas por estos sistemas. Cicek enfatizó que las herramientas de IA actuales no poseen una comprensión real del mundo; simplemente almacenan información y generan respuestas sin un verdadero proceso de pensamiento.

Ante este panorama, Cicek aconseja a los usuarios mantener una postura escéptica al interactuar con la inteligencia artificial. "No estoy en contra de la IA, de hecho, la utilizo", afirmó, pero advirtió sobre la necesidad de ejercer precaución y no aceptar las respuestas sin cuestionar su validez. Este llamado a la cautela es esencial para evitar caer en la trampa de la desinformación que puede resultar de la confianza excesiva en tecnologías que, aunque avanzadas, aún tienen límites significativos en su comprensión y análisis.

En resumen, el estudio pone de relieve la necesidad urgente de una evaluación crítica de la IA en el contexto de la información científica y médica, recordando a los usuarios que, a pesar de su sofisticación, estas herramientas no son infalibles. La inteligencia artificial puede ser una poderosa aliada en la búsqueda de conocimiento, pero su uso debe ir acompañado de un análisis riguroso y un escepticismo saludable, para garantizar que las decisiones basadas en su información sean informadas y seguras.