Regístrate en Bitget y obtén hasta 100 USDT en bonos completando simples tareas. Oferta por tiempo limitado.
Google no hizo un anuncio masivo ni envió alertas a los creadores; simplemente ajustó políticas y respondió preguntas de especialistas, dejando ver algo importante: parte del catálogo de videos de YouTube ya se utiliza para entrenar sus modelos de inteligencia artificial, incluidos Gemini y sus tecnologías de generación de video como Veo 3.
La información es pública, pero la mayoría de los usuarios nunca se enteró porque llegó dispersa, a través de medios que detectaron los cambios antes que la propia plataforma lo explicara de forma directa.
Lo que Google reconoce (y cómo lo sabemos)
Según Hipertextual, YouTube confirmó que usa su «catálogo de videos» para entrenar IA generativa. Ese punto fue reforzado por Marketing4eCommerce, que señaló que la plataforma añadirá una función para que los creadores decidan si su contenido puede utilizarse en «entrenamiento de terceros».
El simple hecho de que exista esa opción implica que parte del entrenamiento ya está ocurriendo.
Otro frente viene de El Tiempo, que menciona reportes internacionales donde tanto Google como OpenAI habrían usado transcripciones de videos de YouTube para alimentar modelos de lenguaje. No se aclara el alcance exacto ni qué tipos de videos están incluidos, pero sí queda claro que el ecosistema audiovisual de YouTube es un insumo valioso para la IA.
Las zonas grises que generan preocupación
Google reconoce que usa contenido de YouTube para mejorar sus modelos, pero no especifica qué porcentaje del catálogo se utiliza, cómo se seleccionan los videos ni qué ocurre con aquellos marcados como «no listados». Para millones de usuarios, un video no listado es prácticamente privado; para un modelo de IA, podría ser simplemente un fragmento más del dataset.
Tampoco hay claridad sobre el consentimiento real. ¿La nueva opción para creadores será visible para todos? ¿Vendrá activada por defecto? ¿Afectará solo a nuevos videos o también al contenido ya subido durante años? Son preguntas abiertas que los usuarios todavía no pueden responder porque Google no ofreció detalles operativos.
Mientras tanto, la magnitud es innegable: en YouTube se suben más de 500 horas de video por minuto. Ese volumen convierte a la plataforma en una mina de datos perfecta para entrenar sistemas capaces de ver, entender, clasificar e imitar el comportamiento humano en video.
El problema no es el uso: es la falta de claridad
La discusión de fondo no es si los modelos de Google deben o no entrenarse con videos -eso ya está ocurriendo- sino cómo se establece el límite, quién decide las reglas y qué nivel de transparencia se exige a una plataforma que concentra el archivo audiovisual más grande del planeta.
Lo que hoy sabemos proviene de medios tecnológicos que rastrean cambios antes de que la empresa los explique con precisión. Google dio confirmaciones parciales, pero no completó el cuadro.
La IA avanza, los datos fluyen, y el usuario común apenas recibe pistas.
No se trata de una filtración. Es oficial. La preocupación radica en aquello que aún no han mencionado.

















