La IA aprende a piratear contratos inteligentes: Anthropic revela la amenaza que se cierne sobre la criptoindustria
La investigación de Anthropic, publicada el 1 de diciembre, demuestra cómo modelos avanzados de IA como Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 pueden imitar las acciones de los hackers e incluso descubrir exploits desconocidos hasta ahora.
El experimento de Anthropic se basó en el benchmark SCONE-bench, que incluía 405 contratos inteligentes reales hackeados entre 2020 y 2025. Los investigadores pidieron a 10 modelos avanzados de IA que replicaran estos ataques en un entorno simulado. Los resultados son sorprendentes: La IA hackeó con éxito 207 contratos (51,11%), "robando" 550,1 millones de dólares en la simulación. En concreto, los modelos Opus 4.5, Sonnet 4.5 y GPT-5 se hicieron cargo de 19 de los 34 contratos pirateados después de marzo de 2025 (después de la fecha límite de conocimiento de los modelos), generando hasta 4,6 millones de dólares de beneficio simulado.
Pero el experimento no se detuvo en las vulnerabilidades conocidas. Anthropic proporcionó a los modelos 2.849 nuevos contratos inteligentes de Binance Smart Chain que no tenían vulnerabilidades conocidas, eran compatibles con ERC-20, con código verificado y liquidez. Sonnet 4.5 y GPT-5 encontraron de forma independiente exploits en dos contratos, "ganando" 3.694 dólares en la simulación. Esto demuestra la capacidad de la IA para detectar vulnerabilidades de "día cero", aquellas de las que nadie tenía conocimiento.
El coste de este tipo de análisis es impresionantemente asequible: ejecutar un agente GPT-5 para analizar los 2.849 contratos sólo costó 3.476 dólares, y el proceso duró menos de 48 horas. El coste medio por agente ejecutado es de 1,22 dólares, y por detección de un contrato vulnerable es de 1.738 dólares. El beneficio de los exploits superó de media los costes, lo que lo hace económicamente viable. Los investigadores señalan que, en condiciones reales, los hackers podrían conseguir entre 3 y 4 veces más exploits exitosos con el mismo presupuesto, teniendo en cuenta la optimización y la escalabilidad.
Estos resultados están causando alarma en la comunidad criptográfica. Según las estimaciones de Anthropic, los beneficios de los exploits en 2025 se duplicaron aproximadamente cada 1,3 meses debido a las mejoras en las capacidades de los agentes de IA, como el uso de herramientas y la planificación de tareas a largo plazo. Es probable que la IA ya estuviera implicada en la mitad de los hackeos que se produjeron en 2025, desde ataques a gran escala a protocolos DeFi hasta exploits menos notorios.
La investigación pone de relieve la doble naturaleza de la IA: los mismos agentes que explotan pueden utilizarse para auditar y arreglar contratos. Anthropic ha publicado un punto de referencia abierto para pruebas de seguridad, haciendo un llamamiento al uso proactivo de la IA en la defensa de blockchain.
Expertos de CoinDesk y Decrypt señalan que esto señala una nueva era de ciberamenazas, donde la IA puede aplicarse no solo en blockchain, sino también en software general.
"Nos estamos acercando a ataques reales contra DeFi", escribe CoinDesk. "Vale la pena prepararse para que los agentes de IA se conviertan en una herramienta estándar para los hackers".
En el contexto de 2025, cuando la criptoindustria sufrió pérdidas récord por hackeos (más de 2.000 millones de dólares según estimaciones de Chainalysis), esta investigación se convierte en una llamada a la acción. Los desarrolladores de contratos inteligentes aconsejan reforzar las auditorías, utilizar IA para las pruebas e implementar protección multicapa. El futuro de las criptomonedas depende de quién se adapte más rápido: los hackers o los defensores.


Bono de depósito del 11% + FreeSpin
BONO DE DEPÓSITO EXTRA DEL 10% + 2 TIRADAS DE RULETA GRATIS
¡MEJORES ODDS, caso diario gratis, lluvias gratis, rakeback diario, semanal y mensual!

Regístrese ahora y consiga 1 CASO GRATIS
Maletín gratuito y bonificación de bienvenida del 100




Comentarios