La llegada de la inteligencia artificial ha revolucionado el campo de la ciberseguridad, alterando las estrategias de protección de datos y la gestión de información sensible por parte de usuarios y empresas. Herramientas como ChatGPT, Claude y Gemini han facilitado la creación automática de contraseñas, prometiendo mayor solidez y eficiencia en comparación con métodos convencionales. Sin embargo, este avance tecnológico también plantea nuevos desafíos y vulnerabilidades en la seguridad digital.

Recientemente, especialistas en ciberseguridad han emitido alertas sobre los riesgos asociados con el uso de contraseñas generadas por inteligencia artificial. Estos expertos han señalado que muchas de estas contraseñas presentan patrones tan predecibles que incluso sistemas informáticos antiguos pueden descifrarlas con facilidad, lo que pone en jaque la seguridad de la información. Un estudio académico publicado en ArXiv reveló que los modelos de lenguaje analizados lograron menos del 1% de precisión en la predicción de contraseñas correctas, lo cual destaca las limitaciones en su aplicación para tareas que requieren una sólida seguridad criptográfica.

Además, una investigación llevada a cabo por la firma Irregular, confirmada por el canal británico Sky News, ha puesto de manifiesto que estas contraseñas generadas por IA pueden ofrecer una falsa sensación de seguridad. A pesar de su aparente complejidad, los patrones son lo suficientemente repetitivos como para ser identificados fácilmente. En un análisis de 50 contraseñas generadas, solo 23 resultaron ser únicas, y algunas se repitieron en múltiples ocasiones. Este hallazgo subraya la necesidad de incorporar marcos de seguridad más robustos y generadores aleatorios específicos para evitar que estas herramientas sean explotadas por atacantes.

Por otro lado, un artículo en la revista Journal of Information Security and Applications examinó la generación de contraseñas a través de modelos de lenguaje y encontró que estos tienden a seguir configuraciones lingüísticas repetitivas, careciendo de la entropía criptográfica necesaria. Esto sugiere que el uso de tales modelos, sin un enfoque de seguridad adecuado, puede ser insuficiente para proteger información crítica, alentando a los usuarios a reconsiderar su confianza en estas tecnologías para salvaguardar sus datos más valiosos.