Regístrate en Bitget y obtén hasta 100 USDT en bonos completando simples tareas. Oferta por tiempo limitado.
La guerra entre Rusia y Ucrania también se libra en las pantallas. Sin embargo, ahora adopta una forma más peligrosa y difícil de detectar.
Videos creados con inteligencia artificial muestran a supuestos soldados ucranianos derrotados, llorando o pidiendo perdón.
A simple vista parecen reales, y por eso generan impacto inmediato y emocional en millones de personas.
Videos que parecen reales, pero no lo son
Desde principios de noviembre comenzaron a circular videos ultrarrealistas en redes sociales.
En ellos aparecen soldados ucranianos rindiéndose o culpando a su propio gobierno por la guerra. Muchos de estos contenidos usan herramientas avanzadas como Sora 2, el generador de video de OpenAI.
Los detalles engañan incluso a ojos entrenados.
Los gestos, las voces y los escenarios imitan años de grabaciones reales del conflicto. Por eso, miles de usuarios reaccionaron con condolencias y mensajes de indignación.
El caso Gubanov y la manipulación de identidades
Aleksei Gubanov, conocido streamer ruso residente en Nueva York, reconoció algo extraño de inmediato.
En uno de esos videos apareció su propio rostro, vestido con uniforme ucraniano. El clip mostraba a un falso Gubanov suplicando no ir al frente y gritando «Mamá, no quiero».
Gubanov jamás sirvió en el ejército ucraniano ni en ningún otro.
Además, abandonó Rusia por criticar abiertamente a Vladimir Putin. Sin embargo, el video utilizó su imagen para difundir un mensaje falso sobre la moral ucraniana.
Sora 2 y el realismo que confunde
NBC News analizó 21 videos de este tipo durante varias semanas.
Al menos la mitad incluían un pequeño logotipo que revelaba su origen: Sora 2. Otros presentaban errores mínimos en uniformes o cascos, casi invisibles para el público general.

Un detalle llamó la atención de los ucranianos. La mayoría de los supuestos soldados hablaban ruso, no ucraniano. Solo ocho videos mostraban personal militar hablando el idioma nacional.
Plataformas sociales y alcance masivo
Estos videos circularon por YouTube, TikTok, Facebook y X. Todos buscaban transmitir una idea clara: soldados cansados, forzados y listos para rendirse. El objetivo resulta evidente, aunque el autor siga sin identificarse.
Expertos en influencia rusa advierten sobre el peligro.
Alice Lee, analista de NewsGuard, señaló que estas falsificaciones resultan muy difíciles de detectar. Según explicó, incluso los mejores sistemas fallan ante contenidos tan pulidos.
Límites, advertencias y contradicciones
OpenAI reconoció los riesgos del realismo extremo de Sora 2.
La empresa afirmó que no permite violencia gráfica ni engaño deliberado. También aseguró que investiga y desmantela operaciones de influencia.
Sin embargo, NBC News encontró videos con marcas de Sora mostrando disparos mortales. Algunos clips ocultaban o cubrían las marcas de agua oficiales.
Hoy existen muchas herramientas que facilitan borrar o disimular esos avisos.
Un contexto social y político delicado
Esta oleada llega mientras las negociaciones de paz siguen estancadas.
El 75% de los ucranianos rechaza las propuestas rusas, según un estudio oficial. Además, el 62% está dispuesto a resistir el tiempo necesario.
El Centro para Contrarrestar la Desinformación de Ucrania alertó sobre un aumento notable. Detectaron más contenido falso creado con inteligencia artificial durante el último año.
Estos videos triunfan porque apelan a emociones fuertes y mensajes simples.
El reto informativo del presente inmediato
TikTok y YouTube prohíben deepfakes engañosos y exigen etiquetas aclaratorias. Ambas plataformas eliminaron varios videos tras las alertas de NBC News.
Aun así, muchas copias siguen activas en otras redes.
Nina Jankowicz, experta en desinformación, lanzó una advertencia clara. «Gran parte de lo que vemos hoy en video y texto lo genera la inteligencia artificial». Y añadió que siempre surgirán nuevas herramientas para manipular la realidad.
Por eso, el conflicto ya no solo se combate con armas. También se combate con imágenes falsas que parecen demasiado reales.

















