La UE comienza a aplicar las normas de transparencia de IA a gigantes tecnológicos

¿Quieres operar este fin de semana? Los índices sintéticos siguen activos → Explorar opciones.

Espacio patrocinado

El 2 de agosto de 2025 entraron en vigor las disposiciones de transparencia del AI Act de la Unión Europea, marcando el inicio de una nueva era en la regulación de la inteligencia artificial.

Este conjunto de reglas impone requisitos a los proveedores de modelos de IA de propósito general (GPAI), como OpenAI, Google y Microsoft, exigiendo mayor trazabilidad, documentación y responsabilidad en el uso de datos y el entrenamiento de modelos.

Con penalizaciones de hasta el 7% de los ingresos anuales, la normativa marca un antes y un después para las empresas tecnológicas, que ahora enfrentan el desafío de equilibrar la innovación con el cumplimiento regulatorio.

Nuevas exigencias regulatorias para los modelos GPAI

Con esta fase inicial del AI Act, los proveedores de GPAI deberán mantener documentación técnica detallada sobre la arquitectura de sus modelos, métodos de entrenamiento, validación y fuentes de datos.

Una obligación clave será la publicación de un resumen público de los conjuntos de datos utilizados, especificando su origen, tipo y proceso de recopilación; con especial atención a las obras protegidas por derechos de autor.

La normativa distingue entre modelos de uso general y aquellos considerados de riesgo sistémico, definidos por su capacidad computacional o nivel de influencia.

En estos últimos casos, los proveedores deberán implementar protocolos de evaluación de impacto, pruebas adversariales y sistemas de gobernanza que minimicen el riesgo de usos indebidos. Esta categoría conlleva exigencias adicionales de seguridad y notificación a la Oficina de IA de la UE.

Avances en el cumplimiento voluntario y reacción de la industria AI

En paralelo a la entrada en vigor de la regulación, la Comisión Europea impulsó un Código de Práctica voluntario, al que se han adherido 26 empresas, entre ellas Amazon, Microsoft, OpenAI e IBM. Este marco facilita el cumplimiento anticipado de las normas vinculantes, ofreciendo pautas sobre transparencia, derechos de autor y trazabilidad de datos.

Sin embargo, la industria ha respondido con posturas mixtas. Google expresó su apoyo al código, aunque advirtió que podría frenar la innovación en el continente. Microsoft manifestó su compromiso con el nuevo marco legal, mientras que Meta optó por no adherirse, argumentando que las exigencias superan el alcance previsto por el AI Act.

Además, varias organizaciones de derechos de autor han manifestado su preocupación por la falta de mecanismos claros de protección frente al uso de obras creativas en el entrenamiento de modelos.

Contraste internacional frente al enfoque de Estados Unidos

Mientras Europa avanza hacia una IA regulada y centrada en la responsabilidad ética, Estados Unidos ha adoptado una postura opuesta. El gobierno de Trump presentó recientemente su plan nacional para la inteligencia artificial, que evita imponer restricciones regulatorias y promueve un entorno de libre mercado.

Esta diferencia evidencia una brecha estratégica considerable entre ambos enfoques en lo que respecta a supervisión, privacidad y gobernanza tecnológica.

La entrada en vigor de las normas de transparencia del AI Act posiciona a la Unión Europea como pionera en la regulación proactiva de la inteligencia artificial. Al exigir claridad en el origen de los datos y establecer criterios diferenciados según el riesgo del modelo, la UE sienta las bases de un estándar global para una gobernanza tecnológica más responsable.

Julio Molina
Julio Molina
Soy un joven de Venezuela, apasionado por la tecnología, la innovación y los sucesos económicos que moldean el mundo actual. Mi interés por las criptomonedas me llevó a profundizar en el ecosistema blockchain, con un enfoque especial en el sudeste asiático.

Deja un comentario

Columnistas destacados

Comunicados de Prensa

Asia