Mientras otros mercados cierran, existen instrumentos que operan 24/7 → Descubre los índices sintéticos.
Espacio patrocinadoUn reciente estudio de Anthropic revela que los modelos avanzados de inteligencia artificial ya pueden detectar y explotar vulnerabilidades en contratos inteligentes de blockchain.
Además, según sus pruebas con herramientas como Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5, estos agentes fueron capaces de generar exploits simulados equivalentes a $4.6 millones, lo que demuestra que los riesgos en DeFi pueden volverse automáticos, sistemáticos y de gran escala.
IA replicó ataques reales y descubrió fallos nuevos
El experimento de Anthropic se basó en un conjunto llamado SCONE-bench, que reúne 405 contratos reales explotados entre 2020 y 2025. Con este material, los agentes de inteligencia artificial replicaron con éxito más de la mitad de esos ataques.
Según el informe oficial, en una segunda fase se analizaron 2.849 contratos recientes sin vulnerabilidades conocidas. En ese grupo detectaron dos fallos «zero-day» y generaron exploits rentables en entornos simulados.
Este resultado evidencia que la automatización ya no constituye un riesgo hipotético. Algoritmos entrenados con modelos de lenguaje pueden analizar código blockchain, identificar puntos débiles y producir scripts de ataque que, en teoría, podrían utilizarse para atacar contratos activos.
Aunque los autores enfatizan que todas las pruebas se realizaron en simulaciones y no afectaron fondos reales, queda evidente que los criptoataques automatizados son una posibilidad real.
Vulnerabilidades ocultas en la era de la IA
Este desarrollo plantea una advertencia seria, ya que incluso los contratos auditados podrían contener vulnerabilidades no detectadas que ahora pueden ser descubiertas de forma automática.
Ante este escenario, se vuelve urgente adoptar protocolos de seguridad más agresivos. Esto incluye auditorías más profundas, el uso de inteligencia artificial «blanca» capaz de detectar fallos, la revisión continua del código y la implementación de posibles estrategias de mitigación automatizadas.
Además, esta revelación subraya la dualidad de la inteligencia artificial. Herramientas como las desarrolladas por Anthropic pueden emplearse tanto para fortalecer la seguridad como para explotarla, lo que resalta la necesidad de ética, regulación y defensa proactiva dentro de los ecosistemas descentralizados.
El impacto estructural en DeFi y contratos inteligentes
Este suceso podría acelerar un cambio en la forma de evaluar la seguridad de los contratos inteligentes. A partir de ahora, los actores de blockchain deberán reforzar sus estándares e incorporar pruebas con inteligencia artificial, simulaciones de ataques automatizados y auditorías más dinámicas para mantenerse protegidos en un entorno de riesgos crecientes.
Para el ecosistema DeFi, esto también actúa como un llamado a la prudencia. Aunque ofrece ventajas como transparencia y desintermediación, su complejidad y exposición pública lo convierten en un objetivo cada vez más accesible para amenazas avanzadas.
En resumen, este evento marca un punto de inflexión. Los contratos inteligentes deberán diseñarse con la seguridad como eje central, y las auditorías sin inteligencia artificial dejarán de ser suficientes. A su vez, quienes adopten un enfoque preventivo estarán mejor preparados para sostener su credibilidad.
