El fiscal general del estado de Florida, James Uthmeier, ha dado inicio a una indagación formal hacia OpenAI, la empresa detrás de ChatGPT, debido a preocupaciones sobre la exposición de menores a contenidos perjudiciales. Esta medida surge en un contexto de creciente inquietud sobre la seguridad pública en Estados Unidos, donde el acceso de los jóvenes a tecnologías avanzadas como la inteligencia artificial plantea serios interrogantes sobre su bienestar. En este sentido, Uthmeier ha enfatizado la necesidad de implementar regulaciones más estrictas en torno al uso de herramientas de inteligencia artificial por parte de la infancia, advirtiendo que la magnitud de la tecnología exige un enfoque responsable y cuidadoso por parte de las empresas desarrolladoras.
La oficina del fiscal general ha indicado que se han encontrado posibles vínculos entre el uso de ChatGPT y episodios de autolesiones y suicidios en jóvenes, lo que ha encendido alarmas sobre el papel que desempeñan estas plataformas en la salud mental de los menores. En particular, Uthmeier ha hecho referencia a un caso reciente donde Phoenix Ikner, presunto autor de un ataque armado en la Universidad Estatal de Florida en abril de 2025, habría utilizado el chatbot de OpenAI antes de llevar a cabo el ataque, que resultó en la muerte de dos personas y dejó a cinco más heridas. Este tipo de incidentes ha llevado a cuestionar si las herramientas de inteligencia artificial están siendo utilizadas de manera adecuada o si, por el contrario, están contribuyendo a situaciones trágicas.
Además, el fiscal general ha expresado su preocupación sobre la posibilidad de que el gobierno de China tenga acceso a datos procesados por OpenAI, lo que podría comprometer la seguridad nacional de Estados Unidos. En un mensaje compartido a través de la red social X, Uthmeier subrayó que la inteligencia artificial debe ser una herramienta que impulse el progreso humano y no una amenaza a la existencia misma de la sociedad. Su postura es clara: ninguna empresa debe poner en riesgo a los menores ni facilitar acciones delictivas que puedan fortalecer a adversarios de Estados Unidos.
El debate sobre la inteligencia artificial y sus efectos en la infancia ha tomado una nueva dimensión a nivel nacional e internacional. Recientemente, se han presentado casos que cuestionan la efectividad de los sistemas de IA para filtrar contenidos sensibles, lo que ha llevado a diversas entidades regulatorias a tomar cartas en el asunto en distintos estados del país. Estas preocupaciones no son nuevas, pero la reciente atención mediática y las intervenciones gubernamentales han puesto de manifiesto la urgencia de establecer un marco regulatorio que garantice la seguridad de los usuarios más vulnerables, en especial los niños.
Por su parte, OpenAI ha rechazado las acusaciones en su contra y ha defendido los estándares de seguridad que implementa. Un portavoz de la compañía ha destacado que cada semana, más de 900 millones de usuarios utilizan ChatGPT para diversas aplicaciones, desde el aprendizaje de habilidades hasta la gestión de trámites sanitarios, lo que pone de relieve los beneficios que la tecnología puede ofrecer. Además, la empresa ha comunicado su compromiso de colaborar plenamente con la investigación iniciada por la fiscalía general, reafirmando su intención de mejorar continuamente la seguridad de sus herramientas.
Hasta el momento, la fiscalía no ha detallado el alcance de la pesquisa, aunque se ha indicado que es probable que se emitan citaciones judiciales a medida que avance la investigación. La situación refleja un momento crítico en el que la regulación de la inteligencia artificial se convierte en un tema de vital importancia para la protección de la infancia y la seguridad pública en general. A medida que la tecnología avanza, el desafío para las autoridades será encontrar un equilibrio entre la innovación y la protección de los más vulnerables, algo que no solo es responsabilidad de las empresas, sino también de los gobiernos y la sociedad en su conjunto.



