En un paso significativo hacia la regulación de la inteligencia artificial, las instituciones de la Unión Europea han llegado a un acuerdo que prohíbe la creación de imágenes sexualizadas generadas por IA sin el consentimiento explícito de las personas involucradas. Este pacto, alcanzado en las primeras horas del jueves, responde a la creciente preocupación por el uso indebido de la tecnología en la generación de contenido sensible y potencialmente dañino.
El nuevo marco legal establece una prohibición clara sobre los sistemas de inteligencia artificial diseñados específicamente para la creación de imágenes sexualizadas y contenido relacionado con abusos sexuales infantiles. Además, se extiende a aquellos sistemas que, aunque tengan múltiples funciones, carecen de medidas de seguridad adecuadas para prevenir la difusión de este tipo de material. Este enfoque busca proteger la integridad y los derechos de los individuos en un entorno digital cada vez más complejo.
El acuerdo, que entrará en vigor el 2 de diciembre de 2026, surge tras el escándalo provocado por la herramienta de inteligencia artificial Grok, utilizada en la red social X. La Comisión Europea ha dado un plazo hasta finales de año para que esta plataforma implemente medidas efectivas que garanticen la protección de los usuarios y eviten la creación de contenido inapropiado. Henna Virkkunen, vicepresidenta de la Comisión Europea a cargo de la política digital, afirmó que este pacto busca equilibrar la innovación y la seguridad, permitiendo a las empresas y ciudadanos sentirse protegidos en el ámbito digital.
Además de la prohibición de imágenes sexualizadas, la UE ha decidido retrasar la obligación de incorporar marcas de agua en todo tipo de contenido generado por inteligencia artificial, incluyendo fotos, videos y audios. Esto permitirá a los usuarios identificar fácilmente cuándo un contenido ha sido creado por una máquina. La fecha límite para implementar esta medida se ha pospuesto hasta diciembre de 2026, lo que refleja la necesidad de tiempo para desarrollar una tecnología que cumpla con los requisitos de seguridad necesarios.
Por otro lado, la normativa también ha aplazado hasta diciembre de 2027 la implementación de obligaciones para sistemas de IA de alto riesgo, que incluyen aquellos utilizados para proteger infraestructuras críticas o para la evaluación de riesgos en el sector bancario. Originalmente, se esperaba que estas regulaciones entraran en vigor este año, pero la falta de un marco técnico claro ha llevado a las instituciones a solicitar un retraso de dieciséis meses. Esto pone de manifiesto los desafíos que enfrenta la UE en la creación de un entorno regulatorio que garantice la seguridad sin sofocar la innovación.
Esta reforma de la ley de inteligencia artificial ha sido impulsada, en gran parte, por la necesidad de reducir la carga burocrática sobre las empresas. Como resultado, se han eximido a ciertos sectores de cumplir con requisitos de transparencia y notificación de incidentes que se aplican a sistemas de alto riesgo. Por ejemplo, productos como dispositivos médicos y juguetes estarán liberados de demostrar la seguridad de sus sistemas de IA si ya están sujetos a otras normativas sectoriales.
La búsqueda de un equilibrio entre la promoción de la innovación y la protección de los derechos individuales es un desafío constante para los legisladores europeos. Para que Europa se convierta en un referente en el desarrollo y uso de la inteligencia artificial, es crucial fomentar un ecosistema que incentive a las empresas emergentes, al mismo tiempo que se establecen regulaciones que protejan a los ciudadanos. En este contexto, la reciente normativa representa un paso hacia la creación de un entorno más seguro y responsable en el ámbito digital.



