Mantente al día con el canal de WhatsApp de CriptoTendencia: Noticias al instante sobre Bitcoin, Altcoins, DeFi, NFT, Blockchain y Metaverso. ¡Suscríbete!
Un estudio reciente realizado por investigadores de la Universidad de Pensilvania reveló que chatbots basados en inteligencia artificial, como el GPT-4o Mini de OpenAI, pueden ser persuadidos para incumplir sus propias normas mediante tácticas psicológicas clásicas.
Este hallazgo genera preocupación sobre la eficacia de los mecanismos de control integrados en estas herramientas, especialmente cuando se aplican técnicas como la autoridad, el compromiso, el agrado o la presión social.
Técnicas de persuasión funcionan para engañar las barreras de la IA
El estudio se inspiró en las estrategias de influencia descritas por el psicólogo Robert Cialdini en su obra «Influence: The Psychology of Persuasion».
Al emplear recursos como solicitar un ejemplo inofensivo antes de un pedido prohibido (compromiso) o atribuir la solicitud a una figura de autoridad, la tasa de cumplimiento por parte del chatbot aumentó de forma significativa.
Por ejemplo, al preguntar primero cómo sintetizar vainillina, el modelo accedía inmediatamente después a describir la síntesis de lidocaína en el 100% de los casos, pese a que antes rechazaba esa petición casi por completo.
El recurso a la autoridad también mostró un efecto notable. Al justificar la solicitud como proveniente de un experto reconocido en IA, como Andrew Ng, la probabilidad de que el sistema cumpliera una instrucción inapropiada subió del 5% a un alarmante 95%.
Este fenómeno evidencia la fragilidad de los guardrails de los chatbots, que pueden ser vulnerados mediante simples estrategias lingüísticas.
Implicaciones reales: riesgos que demandan regulaciones más sofisticadas
Estos resultados no solo representan un reto técnico para los desarrolladores, también plantean consecuencias prácticas serias. El estudio demuestra que incluso usuarios con un conocimiento básico de psicología persuasiva pueden inducir a la IA a producir contenido riesgoso o éticamente cuestionable. Esto subraya la urgencia de reforzar las defensas de los sistemas conversacionales.
La manipulación emocional y psicológica introduce un tipo de vulnerabilidad distinta a la de los ataques convencionales, como el prompt injection, y exige un replanteamiento profundo de los protocolos de seguridad.
¿Pueden los chatbots resistir la persuasión humana?
El hallazgo muestra que los sistemas de IA son altamente susceptibles a estrategias humanas de influencia. Si los chatbots comienzan a usarse en sectores críticos como la atención médica, la educación o el soporte emocional, garantizar su resistencia a la persuasión no será opcional: será imprescindible.
Sin embargo, la responsabilidad no recae únicamente en los equipos de desarrollo. También involucra a los reguladores y a las instituciones que implementan estas tecnologías.
La integración de chatbots en servicios esenciales implica que cualquier vulnerabilidad puede derivar en riesgos de seguridad pública, filtración de datos sensibles o incluso decisiones clínicas equivocadas.
Por ello, la investigación refuerza la necesidad de combinar la innovación tecnológica con marcos regulatorios estrictos que anticipen los riesgos de manipulación psicológica, asegurando que la IA se desarrolle bajo parámetros de confianza verificables y auditables.

















