Runway
| Runway AI, Inc. | ||
|---|---|---|
|
| ||
| Tipo | Empresa privada | |
| Industria |
Inteligencia artificial Aprendizaje de máquina Desarrollo de software | |
| Forma legal | empresa privada | |
| Fundación | 2018 | |
| Sede central | Manhattan (Estados Unidos) | |
| Personas clave |
| |
| Productos |
Gen-1 Gen-2 Gen-3 Alpha Frames Gen-4 Aleph | |
| Empleados | 86 | |
| Sitio web | runwayml.com | |
Runway AI, Inc. (también conocida como Runway y RunwayML ) es una empresa estadounidense con sede en la ciudad de Nueva York especializada en investigación y tecnologías de inteligencia artificial generativa.[1] La empresa se centra principalmente en la creación de productos y modelos para generar vídeos, imágenes y diversos contenidos multimedia. Es conocida por desarrollar los modelos comerciales de texto a vídeo Gen-1, Gen-2,[2][3] Gen-3 Alpha,[1] Gen-4,[4] Act-One y Act-Two,[5] Aleph y Game Worlds.[6]
Las herramientas y los modelos de IA de Runway se han utilizado en películas como Everything Everywhere All at Once,[7] en videos musicales de artistas como A$AP Rocky,[8] Kanye West,[9] Brockhampton y The Dandy Warhols,[10] y en la edición de programas de televisión como The Late Show[11] y Top Gear.[12]
Servicios y tecnologías
[editar]Runway se centra en inteligencia artificial generativa para vídeo, medios y arte. La empresa desarrolla tecnología propia de modelos que los profesionales de la cinematografía, posproducción, publicidad, edición y efectos visuales pueden utilizar. Además, ofrece una aplicación para iOS dirigida a consumidores.[13]
Se puede acceder al producto Runway a través de una plataforma web y mediante una API como servicio administrado.
Stable Difussion
[editar]Stable Diffusion es un modelo de texto a imagen de aprendizaje profundo de código abierto lanzado en 2022 basado en el artículo original "High-Resolution Image Synthesis with Latent Diffusion Models" publicado por Runway.[14][15][16] Stable Diffusion se utiliza principalmente para crear imágenes a través de descripciones de texto.
Gen-1
[editar]Gen-1 es un sistema de IA generativa de video a video que sintetiza nuevos videos aplicando la composición y el estilo de una imagen o un texto a la estructura del video original. El modelo se lanzó en febrero de 2023. Runway entrenó y desarrolló este modelo basándose en su artículo original "Structure and Content-Guided Video Synthesis with Diffusion Models".[17] Es un ejemplo de inteligencia artificial generativa para la creación de videos.
Gen-2
[editar]Gen-2 es un sistema de IA multimodal que puede generar nuevos vídeos a través de texto, imágenes o videoclips. El modelo es una continuación de Gen-1 e incluye una modalidad para generar vídeo adaptado a texto. Gen-2 es uno de los primeros modelos de texto a vídeo disponibles comercialmente.[18][19][20][21]
Gen-3 Alpha
[editar]Gen-3 Alpha es el primero de una próxima serie de modelos entrenados por Runway en una nueva infraestructura diseñada para entrenamiento multimodal a gran escala. Representa una mejora significativa en fidelidad, consistencia y movimiento con respecto a Gen-2, y un avance hacia la creación de modelos de mundo general.[22]
Los datos de entrenamiento para Gen-3 provienen de miles de videos de YouTube y, posiblemente, de películas pirateadas. Un exempleado de Runway declaró en 404 Media que una iniciativa la empresa consistía en compilar una lista de videos en hojas de cálculo, que luego se descargaban mediante youtube-dl a través de servidores proxy para evitar el bloqueo de YouTube. Mediante pruebas, 404 Media descubrió que al usar nombres de YouTubers famosos Gen-3 generaba videos en sus respectivos estilos.[23]
Gen-4
[editar]En marzo de 2025, Runway lanzó Gen-4, un modelo de IA para la generación de video descripto por la compañía como el más avanzado hasta la fecha. El modelo puede generar personajes, objetos y entornos consistentes en diferentes escenas, utilizando imágenes de referencia e indicaciones de texto.[24]
A diferencia de los modelos anteriores que trataban cada cuadro como una tarea separada con solo conexiones vagas entre ellos, Gen-4 permite a los usuarios generar personajes consistentes en todas las condiciones de iluminación utilizando una imagen de referencia de esos personajes.[25] El modelo introdujo varias características clave diseñadas para abordar desafíos muy comunes en la generación de videos a través de IA, particularmente cuestiones referidas a la consistencia visual y la continuidad narrativa que hacían que el contenido generado por IA pareciera inconexo.[26]
Gen-4 Turbo
[editar]Gen-4 Turbo, lanzado en abril de 2025,[27] es una versión más rápida y económica de Gen-4. El modelo Turbo consume menos créditos por segundo de video.
Referencias
[editar]Con Gen-4 References, los usuarios pueden cargar imágenes de referencia como base para personajes, objetos, escenarios o entornos en diferentes escenas.[25] El sistema puede extraer un personaje de una imagen y colocarlo en diferentes escenas, transformar elementos de personajes o entornos, combinar estilos visuales entre imágenes o combinar elementos de múltiples fuentes.[28]
Aleph
[editar]En julio de 2025, Runway lanzó Aleph, que agrega la capacidad de realizar ediciones en videos de entrada, incluyendo agregar, eliminar y transformar objetos, generar cualquier ángulo de una escena y modificar el estilo y la iluminación.[29] Con el lanzamiento de Aleph, el modelo Gen-4 ahora puede soportar varias tareas de edición, incluyendo manipulación de objetos, transformación de escenas, generación de ángulos de cámara y transferencia de estilos.[29]
Act-One y Act-Two
[editar]Act-One, lanzado en octubre de 2024, permite a los usuarios subir un video de base y luego transformarlo en personajes realistas o animados.[5] Los creadores pueden animar personajes en diversos estilos sin equipo de captura de movimiento ni rigging, pero manteniendo elementos importantes de la actuación original, como las líneas de visión, las microexpresiones y el ritmo matizado en los personajes generados.[30][31] Act-Two, una versión ampliada, permite a los usuarios animar personajes usando videos de base, brindando control sobre los gestos y el movimiento corporal al usar imágenes de los personajes y agregando automáticamente movimiento ambiental.[32]
Game Worlds
[editar]En 2025, Runway lanzó Game Worlds, descrito como «un primer vistazo a la próxima frontera de las experiencias narrativas no lineales».[6] La herramienta permite a los usuarios jugar o crear aventuras basadas en texto acompañadas de imágenes.[33] Runway describe a Game Worlds como «un primer paso hacia la próxima era de los videojuegos» y afirma que «representa la próxima frontera» del entretenimiento interactivo y la educación.[34]
Cine con IA
[editar]Festival de Cine de IA
[editar]Runway ha organizado un Festival de Cine de IA (AIFF) anual desde 2023 para exhibir películas creadas con inteligencia artificial.[35] El festival ha experimentado un crecimiento espectacular, pasando de 300 presentaciones y proyecciones en pequeños cines de la ciudad de Nueva York en su año inaugural a más de 6000 presentaciones para 2025.[36] El festival de 2025 culminó con una proyección con entradas agotadas en el Lincoln Center de Nueva York, atrayendo a cineastas y público de todo el mundo.[37]
Gen:48
[editar]Runway organiza la competencia de cortometrajes Gen:48, un desafío cinematográfico donde los participantes tienen 48 horas y créditos gratuitos de generación de IA para crear cortometrajes de entre 1 y 4 minutos de duración.[38] El formato de la competencia está diseñado para alentar la experimentación con herramientas de IA bajo restricciones de tiempo, fomentando la innovación en la realización cinematográfica asistida por IA.[39] La primera edición se lanzó en octubre de 2023, seguida de una segunda edición en febrero de 2024, y las competencias posteriores continuaron hasta 2025.[40] Los participantes reciben créditos de Runway y acceso ilimitado temporal a sus herramientas de IA durante un período de 48 horas.[40] Los ganadores reciben premios que incluyen dinero en efectivo, créditos de Runway y la oportunidad de proyectar sus películas en el Festival de Cine de IA.[39]
Referencias
[editar]- ↑ a b Metz, Cade (4 de abril de 2023). «Instant Videos Could Represent the Next Leap in A.I. Technology». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 15 de septiembre de 2023.
- ↑ «Generative AI's Next Frontier Is Video». Bloomberg.com (en inglés). 20 de marzo de 2023. Consultado el 15 de septiembre de 2023.
- ↑ Vincent, James (20 de marzo de 2023). «Text-to-video AI inches closer as startup Runway announces new model». The Verge (en inglés estadounidense). Consultado el 15 de septiembre de 2023.
- ↑ «Introducing Runway Gen-4». runwayml.com (en inglés estadounidense). 31 de marzo de 2025. Consultado el 31 de marzo de 2025.
- ↑ a b «Runway Research | Introducing Act-One». runwayml.com (en inglés). Consultado el 28 de agosto de 2025.
- ↑ a b «Runway Research | Introducing Runway Game Worlds». runwayml.com (en inglés). Consultado el 28 de agosto de 2025.
- ↑ Shapiro, Lila (4 de junio de 2025). «Everyone Is Already Using AI (And Hiding It)». Vulture (en inglés). Archivado desde el original el 4 de junio de 2025. Consultado el 5 de junio de 2025.
- ↑ «Distorting Reality with Dan Streit». Runway (en inglés estadounidense). Consultado el 1 de marzo de 2024.
- ↑ Cowen, Trace William. «Kanye West Shares Unsettling Video for "Vultures (Havoc Version)" Ahead of Ty Dolla Sign Collab Album Release». Complex (en inglés estadounidense). Consultado el 1 de marzo de 2024.
- ↑ The Dandy Warhols - "I'd Like To Help You With Your Problem (feat. Slash)" - Official Music Video (en inglés), 14 de febrero de 2024, consultado el 1 de marzo de 2024.
- ↑ «How Runway took The Late Show edits from five hours to five minutes». Runway (en inglés estadounidense). Archivado desde el original el 6 de julio de 2023.
- ↑ «How Drew Emery uses Runway to edit content for Top Gear America & Cooper's Bar». Runway (en inglés estadounidense). Archivado desde el original el 24 de marzo de 2024. Consultado el 1 de marzo de 2024.
- ↑ Vincent, James (24 de abril de 2023). «Create generative AI video-to-video right from your phone with Runway's iOS app». The Verge (en inglés). Consultado el 1 de marzo de 2024.
- ↑ «Stable Diffusion developer Runway raises $50M to create AI multimedia tools». SiliconANGLE (en inglés estadounidense). 6 de diciembre de 2022. Consultado el 18 de septiembre de 2023.
- ↑ «Stability AI Is Losing Executives, Engineers and Its Edge». Bloomberg.com (en inglés). 8 de agosto de 2023. Consultado el 18 de septiembre de 2023.
- ↑ «The original startup behind Stable Diffusion has launched a generative AI for video». MIT Technology Review (en inglés). Consultado el 18 de septiembre de 2023.
- ↑ «Gen-1 by Runway». Runway (en inglés estadounidense). Consultado el 18 de septiembre de 2023.
- ↑ «Text to Video Generative AI Is Finally Here and It's Weird as Hell». Gizmodo (en inglés). 22 de marzo de 2023. Consultado el 18 de septiembre de 2023.
- ↑ Wiggers, Kyle (9 de junio de 2023). «Runway's Gen-2 shows the limitations of today's text-to-video tech». TechCrunch (en inglés estadounidense). Consultado el 18 de septiembre de 2023.
- ↑ Avram Piltch (8 de junio de 2023). «Runway's Powerful Gen-2 Text-to-Video Tool Now Available to Everyone for Free». Tom's Hardware (en inglés). Consultado el 18 de septiembre de 2023.
- ↑ Vincent, James (20 de marzo de 2023). «Text-to-video AI inches closer as startup Runway announces new model». The Verge (en inglés estadounidense). Consultado el 18 de septiembre de 2023.
- ↑ «Generative AI's Next Frontier Is Video». Bloomberg.com (en inglés). 20 de marzo de 2023. Consultado el 15 de septiembre de 2023.
- ↑ Cole, Samantha (25 de julio de 2024). «AI Video Generator Runway Trained on Thousands of YouTube Videos Without Permission». 404 Media. Consultado el 25 de julio de 2024.
- ↑ Wiggers, Kyle (31 de marzo de 2025). «Runway releases an impressive new video-generating AI model». TechCrunch (en inglés estadounidense). Consultado el 24 de junio de 2025.
- ↑ a b «Gen-4 - Gen-4 References | Runway Academy». Runway (en inglés estadounidense). Consultado el 29 de agosto de 2025.
- ↑ «Runway Research | Introducing Runway Gen-4». runwayml.com (en inglés). Consultado el 29 de agosto de 2025.
- ↑ «Runway raised a $308M Series D round following its Gen-4 video generation model launch». Data Phoenix (en inglés). 8 de abril de 2025. Consultado el 29 de agosto de 2025.
- ↑ «Creating with Gen-4 Image References». Runway (en inglés estadounidense). Consultado el 29 de agosto de 2025.
- ↑ a b «Runway Research | Introducing Runway Aleph». runwayml.com (en inglés). Consultado el 29 de agosto de 2025.
- ↑ Franzen, Carl (22 de octubre de 2024). «'This is a game changer': Runway releases new AI facial expression motion capture feature Act-One». VentureBeat (en inglés estadounidense). Consultado el 29 de agosto de 2025.
- ↑ read, Chris McKay • 1 min (22 de octubre de 2024). «Runway's Act-One Lets You Animate AI-Generated Characters with a Video». Maginative (en inglés). Consultado el 29 de agosto de 2025.
- ↑ «Creating with Act-Two». Runway (en inglés estadounidense). Consultado el 29 de agosto de 2025.
- ↑ «Runway AI's New Tool Will Let You Make Video Games». PCMAG (en inglés). 29 de junio de 2025. Consultado el 29 de agosto de 2025.
- ↑ «Game Worlds Beta FAQ». Runway (en inglés estadounidense). Consultado el 29 de agosto de 2025.
- ↑ «AIFF 2025 | AI Film Festival». aiff.runwayml.com (en inglés). Consultado el 11 de septiembre de 2025.
- ↑ Garfinkle, Allie. «Runway's AI transformed films. The $3 billion startup's founders have a bold, new script: building immersive worlds». Fortune (en inglés). Consultado el 11 de septiembre de 2025.
- ↑ Kulp, ByPatrick. «Hundreds gather for experimental shorts at Runway's AI film festival». Tech Brew (en inglés estadounidense). Consultado el 11 de septiembre de 2025.
- ↑ «Gen:48 Aleph Edition | Runway». runwayml.com (en inglés). Consultado el 11 de septiembre de 2025.
- ↑ a b «Runway GEN:48 AI Film Competition». Curious Refuge (en inglés estadounidense). 5 de febrero de 2024. Consultado el 11 de septiembre de 2025.
- ↑ a b «Gen:48 Aleph Edition FAQ». Runway (en inglés estadounidense). Consultado el 11 de septiembre de 2025.