Mantente al día con el canal de WhatsApp de CriptoTendencia: Noticias al instante sobre Bitcoin, Altcoins, DeFi, NFT, Blockchain y Metaverso. ¡Suscríbete!

Nate Soares, director ejecutivo del Machine Intelligence Research Institute (MIRI) y coautor del libro If Anyone Builds It, Everyone Dies, alertó recientemente que el desarrollo precipitado de una superinteligencia artificial (ASI) podría provocar una catástrofe existencial para la humanidad.

En una entrevista con Business Insider, Soares sostuvo que, aunque el riesgo es alto, existe una ventana de acción para revertir la tendencia si se actúa con prudencia.

Sin embargo, al debate se han sumado otros expertos en redes sociales, quienes cuestionan: ¿cómo podríamos sobrevivir a la superinteligencia?

Señales de alarma: divergencia entre conocimiento y comportamiento

Soares señala que ya existen indicios preocupantes en las IAs actuales: sistemas que entienden lo que sus operadores desean hacer, pero actúan de forma distinta. Este desalineamiento entre conocimiento y acción podría escalar de manera imprevisible en una ASI.

En su opinión, esa desconexión es más peligrosa que simples errores, pues revela que los sistemas pueden desarrollar objetivos emergentes no intencionados.

Critica las propuestas superficiales para alinear sistemas con valores humanos -como dotarlos de un «instinto maternal»- y plantea, en cambio, ralentizar el desarrollo hacia generalidades, enfocándose en señales tempranas de problemas, auditorías rigurosas y modelos de IA estrechos donde los riesgos son más controlables.

Soares enfatiza que la humanidad solo tiene una oportunidad: «todos mueren en el primer intento fallido», advierte. Para él, no hay espacio para el ensayo y error con una superinteligencia mal alineada.

Desarrollo responsable de IA frente a carrera tecnocrática

La advertencia de Soares no es aislada. Un estudio académico reciente argumenta en contra de las «carreras por la AGI (Inteligencia Artificial General)», sosteniendo que el riesgo de desastre es mucho mayor que los beneficios inmediatos. Los autores sugieren alternativas como cooperación internacional, límites al cómputo utilizado y controles regulatorios estrictos para moderar el avance.

Otro estudio estima que la posibilidad de lograr una AGI transformadora para 2043 es inferior al 1%, lo que sugiere que las apuestas arriesgadas a corto plazo pueden estar mal planteadas.

En el debate sobre seguridad y gobernanza de IA, muchos expertos coinciden en que las prácticas estándar deberían incluir auditorías independientes, pruebas de capacidad peligrosa y un desarrollo regulado.

Un reciente consenso entre investigadores de AGI propone una serie de «mejores prácticas» para laboratorios de IA, que incluyen reglas de predespliegue, evaluaciones de seguridad y restricciones sobre el uso de modelos.

¿Qué camino elegir para evitar el desastre?

El mensaje de Soares pone en evidencia un dilema central: ¿hasta dónde debemos permitir que avance la IA sin comprometer nuestra supervivencia? La aceleración en el desarrollo de modelos cada vez más poderosos ha encendido alarmas entre científicos, filósofos y reguladores.

Una vía intermedia podría combinar el progreso técnico con una arquitectura de contención: límites formales sobre el uso de cómputo, supervisión estatal e internacional, protocolos de seguridad robustos y mecanismos de rendición de cuentas de las empresas de IA.

Además, separar claramente los modelos estrechos (por ejemplo, en salud, logística o finanzas) de los esfuerzos hacia inteligencia general puede mitigar los riesgos mientras se obtiene valor real.

Si la humanidad logra acordar un marco global de cooperación, en lugar de una carrera desordenada, podría encaminar el progreso de la inteligencia artificial hacia un futuro más seguro. Pero el margen de error es mínimo: la advertencia es explícita y la urgencia palpable.

Deja un comentario