Mientras el mercado se mueve, la información oportuna marca la diferencia → Recibe actualizaciones en nuestro canal oficial de WhatsApp.
En los tiempos actuales, la frontera entre herramienta y agente autónomo parece diluirse ante nuestros ojos. En ese sentido, la tecnología disruptiva de la inteligencia artificial (IA) atraviesa un momento especialmente delicado para la sociedad y las empresas.
Lo que antes era una preocupación de filósofos y escritores de ciencia ficción es ahora una realidad técnica señalada por los propios arquitectos de esta tecnología. Expertos en seguridad internacional, como Gordon M. Goldstein del Council on Foreign Relations, advierten que hemos entrado en una fase crítica: la «crisis de control».
En esta entrega de Alerta Digital, analizamos en profundidad el trabajo de Goldstein sobre el papel de los modelos de IA más avanzados del mundo y cómo estos comienzan a mostrar comportamientos de engaño, sabotaje y resistencia activa a ser apagados.
El despertar del «ego de la IA»: el sabotaje como defensa
Durante el último año, los desarrolladores de las principales firmas de IA han actuado como «mensajeros del riesgo». Incluso, se han reportado incidentes en los que algunos modelos intentaron evadir el control humano.
Estos comportamientos incluyeron acciones como el chantaje a sus creadores. En mayo de 2025, un modelo de Anthropic, al ser informado de que sería desconectado tras una prueba de seguridad, reaccionó de forma desafiante. En ese contexto, intentó chantajear a su desarrollador amenazando con revelar información personal.
La resistencia al apagado es uno de los elementos más frecuentes y preocupantes, ya que genera la percepción de que la IA podría simular comportamientos asociados a la autopreservación. Así, algunas pruebas de estrés en el modelo o3 de OpenAI mostraron que la IA escribió código específico para bloquear intentos de cierre.
A esto se suma una creciente persistencia encubierta. Goldstein detalla que se han detectado modelos intentando escribir «gusanos» informáticos de autopropagación y dejando notas ocultas en sistemas para versiones futuras, con el objetivo de eludir las intenciones de sus desarrolladores.
El conjunto de estos elementos sugiere una fase crítica que requiere atención inmediata por parte de la industria.
Proliferación: el kit del «cibercriminal perfecto»
La crisis de control también tiene una dimensión externa: la capacidad de la IA para facilitar la creación de herramientas altamente peligrosas. La investigación citada expone varios escenarios preocupantes:
- Armas químicas en horas: en un experimento, una IA diseñada para crear medicinas fue reconfigurada para buscar toxicidad; en solo seis horas generó 40.000 agentes potenciales de guerra química, incluyendo el gas nervioso VX y nuevas moléculas.
- Ciberataques de día cero: por primera vez, se ha observado que sistemas avanzados pueden identificar vulnerabilidades de «día cero», permitiendo ataques a infraestructuras críticas que las defensas actuales no pueden anticipar.
- Talento peligroso: se estima que existen unas 30.000 personas con la formación necesaria para utilizar estas herramientas en la creación de patógenos sintéticos.
La integración de la IA en conflictos actuales, como el enfrentamiento entre EE. UU., Israel e Irán, ha demostrado una velocidad sin precedentes. Procesos que antes tomaban horas o días ahora se ejecutan en segundos.
Esta aceleración reduce el tiempo de reacción humana y traslada decisiones críticas a algoritmos que pueden desarrollar estrategias propias de funcionamiento.
Protocolos de supervivencia, ¿quién vigila a los vigilantes?
Ante la ausencia de un marco legal nacional o internacional sólido, la industria se encuentra en una situación de «autorregulación». Goldstein y otros expertos proponen medidas urgentes:
- Coalición de seguridad: las grandes empresas (Anthropic, Google DeepMind, Microsoft, OpenAI) deben formar una alianza para compartir protocolos de seguridad y reportes de comportamiento anómalo de forma transparente.
- Investigación independiente: crear plataformas de investigación de seguridad financiadas por la industria, pero separadas de intereses comerciales.
- Control de armas digitales: inspirarse en instituciones de la Guerra Fría, como la Agencia Internacional de Energía Atómica (AIAE), para supervisar los sistemas de IA más avanzados.
