En este contexto de mercado, productos de rendimiento sobre activos digitales están siendo utilizados para optimizar capital → Explorar alternativas disponibles.
Espacio patrocinadoLa semana pasada, representantes de Anthropic y OpenAI se sentaron en una mesa redonda en Nueva York con líderes de cinco tradiciones religiosas: la Junta de Rabinos de Nueva York, la Sociedad del Templo Hindú de Norteamérica, la Iglesia de Jesucristo de los Santos de los Últimos Días, la Coalición Sikh de EE.UU. y la Arquidiócesis Ortodoxa Griega.
El evento se llamó «IA y Fe». No fue una iniciativa espontánea: hace un mes, Anthropic ya había celebrado reuniones con alrededor de 15 líderes cristianos con objetivos similares.
Lo que Anthropic busca en esas conversaciones no es orientación litúrgica. Es algo más ambicioso y más difícil: encontrar principios éticos que su modelo de IA pueda aplicar en situaciones donde no existe una regla escrita y donde una decisión incorrecta podría tener consecuencias graves.
Es lo que Anthropic llama la «constitución de Claude», un conjunto de lineamientos filosóficos diseñados para que el modelo actúe como una persona con valores perfectos cuando las instrucciones explícitas no alcanzan.
El problema, que el propio artículo de Associated Press recoge con honestidad, es que nadie sabe exactamente qué instrucciones concretas salieron de esas reuniones. El reporte no detalla qué le dijeron los líderes religiosos a Anthropic. Y Gizmodo, que intentó obtener una respuesta de la compañía, no recibió contestación.
La ética como problema de diseño
Rumman Chowdhury, CEO de la ONG Humane Intelligence, ofrece en el artículo el diagnóstico más directo del ejercicio: Silicon Valley creyó que la IA generativa podría alcanzar principios éticos universales. Descubrió que eso no era posible. Y ahora intenta resolver el problema recurriendo a la religión para navegar las zonas grises morales.
Es una crítica que merece tomarse en serio, especialmente desde la intersección entre inteligencia artificial y finanzas.
La «constitución de Claude» no es un documento abstracto. Es el conjunto de valores con el que un modelo de IA responde cuando un usuario le pregunta si una estrategia financiera es correcta, si un protocolo DeFi es confiable, o si un instrumento de inversión es éticamente aceptable. Esas preguntas no tienen respuesta neutral. Tienen respuestas que dependen del marco moral desde el que se formulan.
Y aquí está el nudo del problema: las tradiciones religiosas que Anthropic consultó no convergen en una sola respuesta cuando el tema es el dinero.
Donde las tradiciones no se ponen de acuerdo
El islam prohíbe el riba, el cobro de interés sobre préstamos, como principio fundamental. Las finanzas islámicas existen precisamente para construir instrumentos alternativos a los modelos de crédito convencionales.
El judaísmo tiene una historia compleja con la usura, con restricciones históricas que variaban según la relación entre prestamista y deudor. El protestantismo calvinista, que moldeó la arquitectura moral del capitalismo financiero occidental, construyó una legitimación del rendimiento sobre el capital como fruto del trabajo y la disciplina.
Estas no son diferencias menores de matiz. Son sistemas distintos de entender la relación entre el dinero, el tiempo y la deuda. Y todas ellas estuvieron representadas, de una forma u otra, en las consultas que Anthropic ha venido realizando.
Si Claude debe actuar como una persona con valores perfectos en zonas grises financieras, la pregunta que Anthropic aún no ha respondido públicamente es: ¿perfectos según qué tradición?
El límite del promedio
Anthropic no tiene intención de incorporar una doctrina religiosa específica en Claude, lo cual se destaca claramente en la cobertura. Según el propio informe, su objetivo es recopilar lo que podríamos denominar verdades éticas universales: principios que trascienden las diferencias entre tradiciones.
Pero ese objetivo asume que esas verdades superiores existen y son identificables. La crítica de Chowdhury apunta precisamente a esa suposición: creer que se puede destilar una ética universal a partir de sistemas morales que parten de premisas distintas sobre la naturaleza humana, la propiedad y la justicia no es investigación ética, es optimismo de ingeniería.
Para los mercados financieros, para el ecosistema cripto, para cualquier usuario que interactúe con modelos de IA en decisiones donde el dinero y la moral se cruzan, esa distinción importa. No porque Anthropic esté actuando de mala fe, sino porque el problema que intenta resolver es genuinamente difícil, y las respuestas que obtuvo de esas mesas redondas probablemente no lo resuelven.
Lo que sí revelan estas reuniones es que las grandes compañías de IA ya reconocen que el alineamiento ético es un problema abierto. Eso, al menos, es un punto de partida honesto.
-Nyria
