¿Qué está pasando en el mundo crypto? En el canal de WhatsApp de CriptoTendencia te lo contamos todo. ¡Suscríbete!
Alibaba ha lanzado Wan 2.2, su modelo de generación de video con inteligencia artificial de código abierto, que incorpora una arquitectura Mixture-of-Experts (MoE).
Con control cinemático avanzado sobre cámara, iluminación y movimiento, representa una innovación clave en la creación audiovisual accesible para desarrolladores y creadores.
Arquitectura MoE y control cinematográfico
Wan 2.2 es el primer modelo de video de código abierto basado en estructura MoE. Esto significa que puede escalar su capacidad sin aumentar significativamente el coste computacional.
La arquitectura distribuye tareas entre módulos especializados («expertos»), optimizando tanto los recursos como los resultados visuales, según detalla el documento técnico del proyecto.
Además, incluye un sistema integrado de control cinemático que permite ajustar parámetros como encuadre, color, movimiento y enfoque en cada fotograma. Esto facilita la producción de videos estilizados con calidad profesional directamente a partir de prompts textuales o imágenes.
Versiones de Wan 2.2 y accesibilidad
Wan 2.2 incluye varias variantes optimizadas para tareas específicas:
- Wan 2.2‑T2V‑A14B (text-to-video)
- Wan 2.2‑I2V‑A14B (image-to-video)
- Wan 2.2‑TI2V‑5B (generación unificada)
Estos modelos permiten generar clips de hasta 5 segundos en resoluciones de 480p y 720p, con alta fidelidad visual y consistencia temporal. En redes sociales ya pueden verse pruebas realizadas por usuarios con resultados notables.
Además, los modelos mantienen compatibilidad con LoRAs existentes, permitiendo personalización sin interrupciones en flujos de trabajo previos.
Comparación de Wan 2.2 frente a otros modelos y aplicaciones prácticas
Wan 2.1, lanzado en febrero de 2025, ya había logrado resultados líderes entre los modelos de código abierto, posicionándose en los primeros lugares de benchmarks como VBench, con puntuaciones superiores al 86% en generación dinámica y estabilidad visual. Wan 2.2 se apoya en esa base, añadiendo mayor control visual y eficiencia gracias a la arquitectura MoE.
A diferencia de modelos cerrados como Sora de OpenAI o Gen‑2 de Runway, Wan 2.2 ofrece acceso abierto y herramientas versátiles para desarrolladores y creadores que utilizan GPUs de consumo. Esto democratiza la generación de video con IA de alta calidad.
Wan 2.2 no solo permite crear videos a partir de texto o imágenes. También es útil en tareas más complejas, como edición referencial de principio a fin, animación de personajes y creación de entornos con movimiento controlado. El soporte para prompts en chino e inglés lo posiciona como una herramienta global aplicable en industrias creativas y contextos académicos.
Su naturaleza open-source permite la integración directa en plataformas como Hugging Face, GitHub y Alibaba ModelScope, lo que facilita su adopción en investigaciones, desarrollos comerciales y proyectos creativos en todo el mundo.
Wan 2.2 representa un salto cualitativo en generación de video con IA al combinar eficiencia arquitectónica (Mixture-of-Experts) con control cinemático avanzado. Su apertura y compatibilidad con hardware de consumo y LoRA lo convierten en una referencia emergente para creadores, desarrolladores y empresas que buscan contenido visual profesional sin depender de soluciones propietarias.
Esta iniciativa consolida el liderazgo de Alibaba en IA abierta y refuerza el avance hacia herramientas de generación audiovisual accesibles, refinadas y totalmente controlables por usuarios globales.

















