En los últimos tiempos, la inteligencia artificial (IA) ha comenzado a desempeñar un papel cada vez más prominente en la desinformación, convirtiéndose en un fenómeno habitual en la producción de contenido engañoso que distorsiona la realidad. Esta tendencia ha sido documentada por el Observatorio Europeo de Medios Digitales (EDMO), que ha observado un aumento exponencial en la generación de material manipulado en los últimos meses. Lo que antes se consideraba una excepción, como los montajes y los "deepfakes", ahora se ha integrado en el flujo informativo diario, generando un impacto significativo en la percepción pública.
La proliferación de herramientas de IA ha facilitado la creación de contenidos falsos que no solo son más creíbles, sino que también se ajustan a los acontecimientos actuales, lo que plantea un desafío sin precedentes para la veracidad de la información. Un estudio reciente de EFE Verifica revela que en marzo, el 34% de los desmentidos se referían a contenidos manipulados, mientras que en el análisis general del EDMO, esta cifra alcanzó el 20%, marcando un récord en ambos casos. Este cambio no solo refleja un aumento en la cantidad de desinformación, sino también en la sofisticación de las técnicas utilizadas para engañar al público.
El desarrollo de modelos de imagen y vídeo más realistas ha sido un factor clave en este fenómeno. Desde septiembre de 2025, se han presentado diversas herramientas como Ray3, Sora 2 y Firefly Image Model 5, que han mejorado la capacidad de generar contenido audiovisual falso. Estas innovaciones permiten la creación de imágenes, vídeos y audios que pueden ser adaptados a casi cualquier tema de actualidad, aprovechando los vacíos informativos y manipulando hechos reales para alterar la narrativa.
Los eventos que dominan la agenda pública se convierten en el caldo de cultivo ideal para la desinformación generada por IA. Este fenómeno, conocido como "AI slop", incluye contenidos sensacionalistas que buscan atraer clics y generar interacciones, priorizando la monetización sobre la veracidad. En un análisis realizado por EFE Verifica entre septiembre de 2025 y abril de 2026, se observó que los contenidos sintéticos estaban directamente relacionados con eventos de gran relevancia en la esfera pública, como la reciente guerra en Irán y la captura de Nicolás Maduro, entre otros.
La guerra en Irán, que estalló en marzo, emergió como el principal foco de desinformación impulsada por herramientas de IA, mientras que la captura de Maduro generó una ola de contenidos manipulados en enero. Otros temas de interés público, como el caso Epstein y la crisis migratoria, también han sido objeto de desinformación, evidenciando un patrón claro: la IA se activa especialmente en contextos de incertidumbre y tensión política, donde la falta de información precisa puede ser explotada.
Sin embargo, no toda la desinformación generada por IA es homogénea. Un análisis de verificaciones recientes realizadas por diversas organizaciones en España, como Newtral y Maldita, ha mostrado que la naturaleza de los contenidos sintéticos varía significativamente en función del contexto en el que se producen. Aunque la IA ha transformado el panorama de la desinformación, también ha abierto un debate sobre la necesidad de estrategias más efectivas para combatir este creciente problema. La capacidad de discernir entre lo auténtico y lo falso se vuelve cada vez más crucial en un mundo donde la información puede ser manipulada con solo unos clics, y la responsabilidad recae tanto en las plataformas como en los consumidores de información para fomentar un entorno informativo más saludable.



