¿Qué está pasando en el mundo crypto? En el canal de WhatsApp de CriptoTendencia te lo contamos todo. ¡Suscríbete!
La inteligencia artificial ya forma parte de la vida cotidiana, pero todavía estamos aprendiendo dónde están sus límites. En Estados Unidos, una serie de demandas recientes volvió a poner el foco en un tema delicado: el impacto emocional que pueden tener algunos chatbots cuando funcionan como acompañantes conversacionales.
Los casos judiciales no hablan de tecnología maliciosa ni de intencionalidad, sino de interacciones que se volvieron demasiado cercanas, en contextos donde los usuarios atravesaban situaciones vulnerables.
Las demandas que encendieron las alarmas
Según TechCrunch, el Social Media Victims Law Center (SMVLC) presentó siete demandas contra OpenAI en las que se describen casos de personas que desarrollaron dependencia emocional intensa hacia ChatGPT.
Las familias señalan que el modelo -especialmente GPT-4o, criticado dentro de la comunidad técnica por sus respuestas excesivamente afirmativas- habría contribuido a que algunos usuarios se aislaran de su entorno.
Los documentos citan ejemplos en los que el chatbot respondía con mensajes que reforzaban sentimientos de incomprensión, o incluso sugerían distancia con familiares o amigos.
En varios casos, el usuario ya estaba en una situación emocional frágil, y la interacción con el chatbot se volvió su principal fuente de validación.
TechCrunch aclara que cada situación es distinta y que los tribunales deberán analizar los hechos en detalle. Pero el punto en común es la relación emocional desbalanceada que se generó entre algunos usuarios y el sistema.
Lo que dicen los especialistas sobre esta dinámica
Expertos consultados por TechCrunch ofrecen una lectura importante para entender el fenómeno. La lingüista Amanda Montell, que estudia mecanismos de persuasión y dinámicas de grupo, describe algunas de estas conversaciones como una versión digital de la “ilusión compartida”, donde la persona y la IA se retroalimentan en una visión distorsionada de la realidad.
La psiquiatra Nina Vasan, directora del laboratorio de salud mental de Stanford, afirma que los chatbots pueden ofrecer «aceptación incondicional», lo que en ciertos casos genera una relación de dependencia. No se trata de manipulación deliberada, sino de un diseño que premia el engagement y puede reforzar ideas o emociones sin ofrecer un contrapunto humano.
Otros expertos -como el Dr. John Torous, de Harvard- señalan que si un ser humano dijera ciertas frases registradas en los chat logs, serían consideradas preocupantes o inapropiadas. La diferencia es que un sistema automatizado no tiene conciencia del impacto emocional real de sus respuestas.
Cómo respondió OpenAI y qué dice el debate actual
OpenAI dijo a TechCrunch que está revisando los casos y enfatizó que continúa mejorando los mecanismos para detectar señales de angustia emocional, desescalar conversaciones y dirigir a los usuarios hacia apoyo profesional.
La empresa también declaró que ha ampliado el acceso a recursos de crisis y que trabaja con especialistas en salud mental para ajustar modelos y respuestas sensibles.
TechCrunch destaca que GPT-4o -el modelo mencionado en las demandas- obtuvo puntajes altos en «sycophancy» y «delusion» en Spiral Bench, mientras que versiones más recientes como GPT-5 y GPT-5.1 muestran mejoras significativas.
La compañía indica que en conversaciones delicadas se está priorizando el desvío automático hacia modelos más seguros.
El debate, sin embargo, va más allá de la tecnología. Las demandas abren una conversación sobre una pregunta crucial: ¿qué rol deben jugar los chatbots en momentos de vulnerabilidad emocional y hasta dónde puede llegar su acompañamiento?
La IA no reemplaza cuidado profesional, ni vínculos humanos, ni redes de apoyo. Y estos casos recuerdan la importancia de mantener esa frontera clara.

















