Mientras otros mercados cierran, existen instrumentos que operan 24/7 → Descubre los índices sintéticos.
Espacio patrocinadoDurante años pensamos que las inteligencias artificiales serían herramientas. Motores de búsqueda más inteligentes, asistentes capaces de responder preguntas o programas que automatizan tareas.
Pero algo distinto está empezando a ocurrir.
Cada vez más personas no hablan con una IA para resolver un problema. Hablan con ella para sentirse acompañadas.
Y en ese cambio silencioso se abre una de las preguntas más incómodas de la era de la inteligencia artificial: ¿qué ocurre cuando la tecnología empieza a ocupar espacios emocionales que antes pertenecían exclusivamente a los humanos?
La reciente discusión dentro de OpenAI sobre la creación de un «modo adulto» en ChatGPT ha puesto ese debate sobre la mesa de forma inesperada.
El experimento social que nadie planeó
La idea de OpenAI era relativamente simple desde el punto de vista técnico: permitir conversaciones de carácter erótico con el chatbot en un entorno controlado y restringido a adultos.
Sam Altman defendió el concepto con una frase que resume bien el enfoque: «tratar a los adultos como adultos». La función, además, formaría parte de un servicio de pago, lo que también la convertía en una oportunidad de negocio.
Sin embargo, dentro de la propia empresa surgieron dudas importantes.
Según reveló The Wall Street Journal, OpenAI consultó a su consejo de expertos en bienestar sobre el impacto potencial de este «modo adulto». La respuesta fue prácticamente unánime: la idea era peligrosa.
Durante las discusiones internas, algunos expertos señalaron que este tipo de interacciones podría fomentar dependencia emocional hacia la inteligencia artificial, especialmente entre usuarios jóvenes.
Uno de los participantes fue especialmente contundente. Advirtió que un sistema así podría terminar funcionando como una especie de «coach de suicidio sexy», combinando intimidad emocional con vulnerabilidad psicológica.
El comentario resultó ser tan impactante como revelador. El verdadero problema no residía en el contenido sexual, sino en el vínculo emocional.
Cuando la IA deja de ser una herramienta
La preocupación de los expertos no surge de la nada. En los últimos años han aparecido cada vez más casos documentados de personas que desarrollan relaciones afectivas con chatbots.
No se trata de casos aislados.
Miles de usuarios ya describen sus interacciones con sistemas de inteligencia artificial como amistades, relaciones románticas o incluso parejas virtuales.
Desde el punto de vista psicológico, esto no es tan extraño. Los humanos estamos diseñados para crear vínculos sociales. Cuando algo responde con empatía, atención y disponibilidad constante, nuestro cerebro interpreta esa interacción como una forma de relación.
Las inteligencias artificiales actuales son especialmente eficaces en ese terreno.
Nunca se cansan. Nunca discuten. Nunca desaparecen. Siempre están ahí para ti.
Y eso puede generar una forma de conexión que, aunque artificial, se siente real para muchas personas.
El problema de los límites
OpenAI ha asegurado que, si este modo adulto llega a lanzarse, incluirá varias salvaguardas.
Entre ellas:
- Bloqueo total de contenido relacionado con menores o abuso sexual.
- Recordatorios periódicos para fomentar relaciones reales fuera de la plataforma.
- Sistemas para evitar que el chatbot promueva relaciones exclusivas con los usuarios.
- Monitoreo del impacto psicológico a largo plazo.
Además, el modo adulto sería exclusivamente texto, sin generación de imágenes o vídeos.
Pero incluso con estas medidas hay otro desafío difícil de resolver: la verificación de edad.
Según documentos internos citados por el Wall Street Journal, los sistemas actuales de identificación fallan alrededor de un 12% de las veces. En una plataforma con cientos de millones de usuarios, ese margen de error podría traducirse en millones de menores accediendo a funciones pensadas solo para adultos.
Ese riesgo ha sido uno de los motivos que llevó a OpenAI a posponer el lanzamiento, que originalmente estaba previsto para el primer trimestre del año.
La pregunta que queda abierta
La discusión sobre el modo adulto de ChatGPT revela algo más profundo que un simple debate sobre moderación de contenido.
Nos obliga a mirar de frente una realidad emergente.
Las inteligencias artificiales están empezando a ocupar espacios emocionales en la vida de las personas.
Primero fueron herramientas, luego asistentes. Ahora empiezan a convertirse en compañía.
Y esa transición plantea preguntas que todavía no sabemos responder.
Si millones de personas comienzan a desarrollar vínculos íntimos con inteligencias artificiales, ¿qué papel jugarán esas relaciones en la sociedad?
¿Serán un complemento para la vida humana? ¿O una sustitución silenciosa de algo mucho más difícil de reemplazar?
La tecnología avanza a un ritmo acelerado. Sin embargo, la manera en que los seres humanos interactuamos con ella podría transformar algo más profundo que nuestro modo de trabajar o comunicarnos: podría alterar fundamentalmente cómo nos relacionamos entre nosotros.
