La amenaza de las «IA en las sombras» para el secreto corporativo

Mientras otros mercados cierran, existen instrumentos que operan 24/7 → Descubre los índices sintéticos.

Espacio patrocinado

El uso no ético de las nuevas tecnologías no solo afecta negativamente a los ciudadanos comunes. Las empresas también enfrentan serios problemas relacionados con la filtración de datos, lo que representa una amenaza para el secreto corporativo. En este contexto, los bots de inteligencia artificial (IA) que muchos empleados utilizan en las sombras para agilizar su trabajo pueden tener consecuencias significativas.

Esto se ha convertido en una de las mayores amenazas para la ciberseguridad empresarial. El principal problema es que no proviene de un hacker externo, sino de la propia motivación de los empleados por ser más eficientes.

Hemos entrado en la era de la «shadow IA». Se trata del uso masivo y no autorizado de herramientas de inteligencia artificial generativa para optimizar tareas laborales. Sin protocolos de privacidad, miles de trabajadores están alimentando modelos públicos con planes estratégicos, balances financieros y códigos fuente, convirtiendo los secretos de sus empresas en el combustible de entrenamiento de futuras versiones de IA.

En esta nueva entrega de Alerta Digital, analizamos cómo la búsqueda de productividad está trasladando la propiedad intelectual de las corporaciones hacia el «cerebro colectivo» de las Big Tech.

El filtrado invisible por medio de las IA en las sombras

El error es tan simple como peligroso. Por ejemplo, un analista financiero sube un archivo Excel con las proyecciones de ventas del próximo trimestre a una IA gratuita para que le genere un resumen ejecutivo. En ese instante, los datos dejan de ser privados.

En la actualidad, los términos de servicio de las versiones gratuitas de la mayoría de las IA permiten que los datos introducidos se utilicen para el entrenamiento del modelo. Esto significa que la estrategia confidencial de una empresa podría ser «alucinada» o incluso reproducida por la IA cuando un competidor formule la consulta adecuada meses después. No es un hackeo, sino una cesión voluntaria de información sensible. Uno de los casos más llamativos de esta tendencia fue el de Samsung.

Lo que las empresas están descubriendo recientemente es que la IA funciona como una esponja de contexto. Los departamentos de I+D están viendo cómo sus patentes en desarrollo aparecen en sugerencias de código utilizadas por programadores externos. Este temor llevó a firmas como Apple a prohibir Copilot de manera preventiva en 2023. Grandes bancos como JPMorgan, Citi y otros también han tomado medidas frente a esta amenaza.

Incluso, se ha detectado una nueva forma de espionaje industrial. En este sentido, agentes realizan «ataques de sondeo» a modelos de lenguaje masivo, formulando preguntas sutiles sobre tecnologías específicas. Si suficientes empleados de una empresa han utilizado bots de IA no supervisados en las sombras para resolver problemas técnicos, el modelo comenzará a mostrar un conocimiento sospechosamente profundo sobre los procesos internos de esa organización.

El peligro regulatorio para las empresas

La «shadow IA» crea un vacío legal complejo. En 2026, las regulaciones de protección de datos, como la Ley de IA de la UE, exigen conocer exactamente dónde se procesa la información de los clientes.

De este modo, cuando un empleado utiliza una IA no autorizada para redactar un correo de atención al cliente incluyendo nombres y direcciones, la empresa incurre en una violación de datos de la que ni siquiera es consciente. El riesgo no es solo el robo de secretos, sino también multas regulatorias que pueden comprometer seriamente la estabilidad financiera de una compañía.

Pasos para contener las amenazas de esta tendencia

Para evitar que tu empresa sea la próxima víctima de fuga de datos por IA, es fundamental implementar estas medidas de higiene digital:

  • IA corporativa: utilizar únicamente instancias de IA que garanticen contractualmente que los datos del prompt no se emplean para entrenamiento.
  • Anonimización de datos: si un empleado debe utilizar una herramienta externa, es obligatorio eliminar nombres, cifras exactas y marcas registradas antes de subir el contenido.
  • Auditoría de extensiones: bloquear extensiones de navegador de «asistentes de escritura» no verificados que escanean todo lo que se escribe en la web para «ayudar».
  • Cultura de riesgo, no prohibición: la prohibición total solo fomenta que la IA en las sombras se vuelva más oculta. La solución pasa por ofrecer alternativas oficiales seguras y educar sobre el valor de la propiedad intelectual.

Alejandro Gil
Alejandro Gil
Alejandro es periodista especializado en la cobertura del mundo financiero.

Deja un comentario

Columnistas destacados

Comunicados de Prensa

Asia