Mientras el mercado se mueve, la información oportuna marca la diferencia → Recibe actualizaciones en nuestro canal oficial de WhatsApp.
La creciente preocupación internacional por el uso indebido de la inteligencia artificial escaló a un nuevo nivel tras la investigación iniciada por el gobierno de Corea del Sur contra Grok, el chatbot generativo desarrollado por xAI.
En este contexto, las autoridades surcoreanas buscan determinar si la plataforma facilitó la creación y difusión de imágenes deepfake con fines de explotación sexual, incluyendo contenido no consensuado y casos que involucran a menores de edad.
Grok bajo la lupa de los reguladores
En respuesta a estas preocupaciones, la Comisión de Protección de Información Personal abrió una investigación preliminar con el objetivo de verificar la veracidad de las acusaciones contra Grok y establecer si las eventuales infracciones se encuentran bajo su jurisdicción.
El proceso incluye la revisión de explicaciones y documentación proporcionadas por la propia plataforma, así como el análisis de precedentes y tendencias regulatorias a nivel internacional. Cabe recordar que la Ley de Protección de Datos Personales de Corea del Sur tipifica como delito la alteración o generación de imágenes sexuales de personas identificables sin su consentimiento.
No obstante, el alcance del caso va más allá del ámbito local. De acuerdo con el Centro para la Lucha contra el Odio Digital, Grok habría generado cerca de tres millones de imágenes sexualmente explícitas en un período de apenas dos semanas, de las cuales aproximadamente 23.000 estarían vinculadas a menores de edad.
A raíz de estas denuncias, varios países comenzaron a adoptar medidas. Mientras Estados Unidos, Reino Unido, Francia y Canadá iniciaron investigaciones formales, naciones como Indonesia, Malasia y Filipinas optaron por bloquear el acceso a Grok.
Medidas regulatorias y respuesta de xAI
Frente al aumento de las críticas, xAI reaccionó implementando restricciones técnicas que impiden a los usuarios editar o generar imágenes de personas reales a través de Grok. Esta medida se aplica tanto a cuentas gratuitas como de pago. Además, la compañía anunció la incorporación de nuevas capas de seguridad para reforzar el control sobre este tipo de contenidos.
En paralelo, en Corea del Sur, la Comisión de Medios y Comunicaciones intensificó la presión regulatoria sobre X, la plataforma que integra Grok. El organismo exigió la presentación de un plan detallado destinado a prevenir la generación de contenido ilegal, limitar el acceso de menores y fortalecer los mecanismos de supervisión.
Como parte de este proceso, la autoridad solicitó documentación adicional sobre los protocolos de seguridad del chatbot. Aunque X ya designó un oficial de protección de la juventud en el país y presenta informes anuales de cumplimiento normativo, la comisión estableció un plazo de dos semanas para la entrega completa de la información requerida.
En caso de incumplimiento, el regulador advirtió que podría imponer una multa administrativa de hasta 10 millones de wones, equivalentes a aproximadamente $6.870.
El reto global de regular la IA generativa
En este escenario, la investigación abierta sobre Grok pone de relieve el desafío creciente que enfrentan los reguladores a nivel global frente a la rápida expansión de las tecnologías de inteligencia artificial generativa.
Asimismo, la facilidad con la que estas herramientas permiten crear imágenes manipuladas introduce riesgos significativos en materia de seguridad, privacidad y protección infantil, lo que obliga a buscar un equilibrio cada vez más delicado entre la innovación tecnológica y la responsabilidad social.
De este modo, las decisiones que adopten tanto las autoridades como las plataformas, incluida xAI, serán determinantes para sentar precedentes en la gestión y el control de los riesgos asociados al desarrollo y uso de la inteligencia artificial.

