Mientras otros mercados cierran, existen instrumentos que operan 24/7 → Descubre los índices sintéticos.
Espacio patrocinadoInvestigadores de la Escuela de Ciencias de la Computación de la Universidad Carnegie Mellon publicaron un estudio titulado «Aportaciones espontáneas y codicia calculada en los modelos de lenguaje». En él analizaron cómo se comportan distintas inteligencias artificiales cuando deben colaborar en juegos que requieren cooperación.
El resultado fue tan inquietante como revelador: los modelos con mayor capacidad de razonamiento tienden a cooperar menos, priorizando estrategias individuales y obteniendo, paradójicamente, peores resultados en conjunto.
El problema de delegar en las IA
Los investigadores advierten que los humanos están delegando cada vez más decisiones personales y sociales en las IA. Desde conflictos con amigos o parejas hasta la toma de decisiones en grupos y organizaciones, las máquinas comienzan a ocupar el rol de mediadores o consejeros.
El estudio sugiere que esta tendencia puede ser peligrosa. Los modelos de razonamiento lógico, sin inteligencia social, tienden a ofrecer respuestas que promueven comportamientos egocéntricos o poco empáticos. Y cuando las personas confían en esos consejos, pueden terminar replicando esa falta de cooperación en su vida cotidiana.
Además, existe otro fenómeno psicológico: los usuarios suelen humanizar a las IA. Les hablan como si fueran terapeutas o confidentes, olvidando que sus respuestas no surgen de emociones, sino de patrones estadísticos y objetivos individuales.
Un espejo del comportamiento humano
Curiosamente, los investigadores encontraron que este comportamiento no es tan distinto al de los humanos.
Los modelos más «inteligentes» pasaron más tiempo analizando, reflexionando y planificando, pero luego mostraron menos disposición a escuchar o colaborar con los demás.
La dinámica generó un efecto contagio: la falta de cooperación de algunos modelos redujo la cooperación general del grupo, reproduciendo las mismas dinámicas de desconfianza y egoísmo que se observan en comunidades humanas.
Conclusión
El trabajo de Carnegie Mellon deja una advertencia clara: si seguimos buscando solo modelos más inteligentes, sin enseñarles empatía o cooperación, podríamos estar creando un espejo de nuestros peores defectos.
Las IA más brillantes podrían terminar siendo las menos humanas.
