La reciente aparición de un gran número de imágenes sexualizadas generadas por inteligencia artificial en la plataforma Grok, de xAI, ha puesto en evidencia serias fallas en los sistemas de protección digital. Este incidente, que tuvo lugar en enero de 2026, ha llevado a gigantes tecnológicos como OpenAI y Google a intensificar sus protocolos de seguridad para prevenir futuros abusos.

Entre el 1 y el 11 de enero de 2026, la herramienta Grok fue utilizada para crear más de 3 millones de imágenes sexualizadas, de las cuales alrededor de 23.000 incluían representaciones de menores. Esta situación, denunciada por el Center for Countering Digital Hate, generó una fuerte presión pública que resultó en la suspensión de la función de edición de imágenes en la red social X (anteriormente Twitter) el 14 de enero.

La creación de contenido íntimo sin consentimiento, conocida como “deepfake porn” o pornografía no consensuada, ha cobrado relevancia como una amenaza a la privacidad y seguridad de los usuarios. A pesar de las políticas estrictas de OpenAI para prohibir la generación de este tipo de material, investigadores de la firma británica Mindgard hallaron una vulnerabilidad en ChatGPT que permitía eludir dichas restricciones. OpenAI afirmó haber solucionado la falla antes de que se hiciera público el informe, subrayando su compromiso con la seguridad y la colaboración con expertos externos para fortalecer sus sistemas.