¿Quieres operar este fin de semana? Los índices sintéticos siguen activos → Explorar opciones.
Espacio patrocinadoUn reciente descubrimiento por parte de la empresa tecnológica noruega Strise ha planteado preocupaciones serias sobre el uso indebido de chatbots de inteligencia artificial generativa, como ChatGPT, para facilitar actividades delictivas. Durante varios experimentos realizados por Strise, se descubrió que ChatGPT podía ser engañado para proporcionar asesoramiento detallado sobre cómo cometer delitos graves, como el lavado de dinero y la evasión de sanciones internacionales, según reporte de CNN.
Experimentos reveladores y preocupaciones sobre la IA
Strise, especializada en software que ayuda a bancos y empresas a combatir el lavado de dinero, descubrió que ChatGPT ofrecía instrucciones sobre cómo mover dinero a través de fronteras y evadir sanciones, incluso las impuestas a países como Rusia. Según Marit Rødevand, cofundadora y directora ejecutiva de Strise, estos descubrimientos demuestran que actores maliciosos podrían usar la IA para agilizar sus actividades ilegales de manera más eficiente que nunca antes.
«Es como tener un asesor financiero corrupto en tu escritorio», afirmó Rødevand en un podcast, refiriéndose a cómo la inteligencia artificial puede ser manipulada para generar respuestas peligrosas. Los resultados de estos experimentos han puesto en duda las salvaguardas de OpenAI, la empresa detrás de ChatGPT, a pesar de sus esfuerzos continuos por mejorar la seguridad del modelo.
Reacción de OpenAI y medidas de protección
OpenAI respondió a las críticas señalando que su último modelo es el más avanzado y seguro hasta la fecha, diseñado para resistir intentos deliberados de engañar a la IA para que genere contenido perjudicial. Aun así, reconocieron que el desafío es constante y que están trabajando para mejorar las defensas de la plataforma sin comprometer su utilidad y creatividad.
«Estamos mejorando constantemente ChatGPT para detener los intentos deliberados de engañarlo», afirmó un portavoz de OpenAI. Sin embargo, los experimentos de Strise mostraron que, mediante preguntas indirectas o la adopción de diferentes personalidades, es posible eludir los bloqueos incorporados.
Impacto en la seguridad y el crimen organizado
El potencial de los chatbots de IA para acelerar la búsqueda y consolidación de información delictiva ha sido señalado por Europol, que advirtió en un informe de 2023 sobre el peligro de estas herramientas en manos de criminales. Según Europol, los chatbots como ChatGPT pueden facilitar el aprendizaje rápido sobre delitos complejos, lo que representa un riesgo para la seguridad global.
El desafío de las salvaguardas de IA
A pesar de los esfuerzos de OpenAI para evitar el uso indebido de su tecnología, la capacidad de evadir las salvaguardas integradas sigue siendo una preocupación. Europol ha señalado que la IA generativa puede reproducir prejuicios o difundir información incorrecta, lo que podría agravar problemas sociales y delictivos.
Los hallazgos de Strise subrayan la necesidad urgente de fortalecer las protecciones en torno a los chatbots de IA y desarrollar soluciones más robustas para evitar su uso indebido. El reto de equilibrar la innovación tecnológica con la seguridad es una tarea continua, especialmente a medida que la IA se convierte en una herramienta cada vez más integrada en la vida cotidiana y los negocios.
