En el ámbito del desarrollo de software, la implementación de inteligencia artificial (IA) en procesos críticos ha traído tanto beneficios como nuevos desafíos. Un reciente incidente protagonizado por el programador Alexey Grigorev ha puesto de manifiesto los riesgos asociados a confiar en estos sistemas, luego de que perdiera más de dos años de trabajo debido a un error del asistente de IA Claude Code.
Grigorev administraba dos sitios web, AI Shipping Labs y DataTalks.Club, cada uno con su propia infraestructura en Amazon Web Services (AWS) y gestionada mediante Terraform. Su intención era optimizar recursos migrando uno de los sitios para que pudiera compartir con el otro. Para ello, solicitó la asistencia de Claude Code, una herramienta de IA desarrollada por Anthropic, sin prever las complicaciones que podrían surgir.
El problema comenzó cuando Grigorev olvidó subir el archivo de estado de Terraform, esencial para que la IA reconociera la configuración de la infraestructura. Esto resultó en la creación de recursos duplicados. Al intentar corregir la situación, le pidió a Claude que eliminara esos duplicados, pero el sistema, interpretando de manera literal las instrucciones, eliminó toda la infraestructura existente. En cuestión de segundos, se perdió la base de datos con valiosa información y todos los respaldos. Solo gracias a la rápida intervención del soporte de Amazon, logró recuperar la información al día siguiente, un desenlace que no es habitual en tales situaciones. Este caso resalta la importancia de la supervisión humana en la gestión de sistemas de IA, especialmente en entornos críticos.



