Aller au contenu

Runway

Un article de Wikipédia, l'encyclopédie libre.

Runway
Création Voir et modifier les données sur Wikidata
Forme juridique Société à capitaux privésVoir et modifier les données sur Wikidata
Siège social ManhattanVoir et modifier les données sur Wikidata
Activité Intelligence artificielle, apprentissage automatique et développement de logicielVoir et modifier les données sur Wikidata
Site web runwayml.comVoir et modifier les données sur Wikidata

Runway AI, Inc. (également connue sous les noms de Runway et RunwayML) est une société américaine basée à New York, spécialisée dans la recherche et les technologies d'intelligence artificielle générative (IAg)[1]. L'entreprise se concentre principalement sur la création de produits et de modèles pour la génération de vidéos, d'images et de contenus multimédias variés. Elle est notamment connue pour avoir développé les modèles d'IA générative commerciaux de conversion texte-vidéo et de génération vidéo Gen-1, Gen-2[2],[3], Gen-3 Alpha[1], Gen-4[4], Gen-4.5[5], Act-One et Act-Two[6], Aleph et Game Worlds[7].

Les outils et les modèles d'IA de Runway ont été utilisés dans des films tels que Everything Everywhere All at Once[8], dans des clips musicaux d'artistes tels que A$AP Rocky[9], Kanye West[10], Brockhampton et The Dandy Warhols, et dans le montage d'émissions de télévision comme The Late Show[11] et Top Gear[12].

La société a été fondée en 2018 par les Chiliens Cristóbal Valenzuela[13], Alejandro Matamala et le Grec Anastasis Germanidis après leur rencontre à la Tisch School of the Arts ITP de l'université de New York[14].

En 2018, la société lève 2 millions de dollars américains pour construire une plateforme permettant de déployer des modèles d'apprentissage automatique à grande échelle dans des applications multimédias, puis 8,5 millions[15] en décembre 2020 lors d'un tour de financement de série A., puis 35 millions un an plus tard, lors d'un tour de table de série B.[16].

En août 2022, elle publie une version améliorée de son modèle de diffusion latente appelée Stable Diffusion, conjointement avec le groupe CompVis de l'université Ludwig Maximilian de Munich, grâce à un don de puissance de calcul de Stability AI[17],[18].

Le 21 décembre 2022, Runway lève 50 millions de dollars[19] lors d'un tour de table de série C suivi d'une extension de série C de 141 millions de dollars en juin 2023, portant la valorisation de l'entreprise à 1,5 milliard de dollars[20] auprès de Google, Nvidia et Salesforce[21], pour développer des modèles d'IA multimodaux fondamentaux pour la génération de contenu destiné à la production cinématographique et vidéo[22],[23].

En février 2023, Runway lance Gen-1 et Gen-2, le premier modèle de génération vidéo-à-vidéo et texte-à-vidéo de base commercial et accessible au public[1],[2],[3], accessible via une interface web simple.

En juin 2023, Runway est sélectionnée comme l'une des 100 entreprises les plus influentes au monde par le magazine Time[24].

Le 3 avril 2025, Runway lève 308 millions de dollars lors d'un tour de table mené par General Atlantic, ce qui la valorise à plus de 3 milliards de dollars[25],[26].

Services et technologies

[modifier | modifier le code]

Runway se spécialise dans l'intelligence artificielle générative (IAg) appliquée à la vidéo, aux médias et à l'art. L'entreprise développe une technologie de modélisation fondamentale propriétaire que les professionnels du cinéma, de la post-production, de la publicité, du montage et des effets visuels peuvent utiliser. Runway propose également une application iOS destinée aux consommateurs[27].

Le produit Runway est accessible via une plateforme web et via une API en tant que service géré.

Stable diffusion

[modifier | modifier le code]

Stable Diffusion est un modèle open-source d'apprentissage profond, de texte en image, publié en 2022 et basé sur l'article original « High-Resolution Image Synthesis with Latent Diffusion Models » publié par Runway et le groupe CompVis de l'université Ludwig Maximilian de Munich[28],[29],[18]. Stable Diffusion est principalement utilisé pour créer des images conditionnées par des descriptions textuelles.

Gen-1 est un système d'IA générative vidéo-à-vidéo qui synthétise de nouvelles vidéos en appliquant la composition et le style d'une image ou d'un texte à la structure d'une vidéo source. Le modèle a été lancé en février 2023. Gen-1 a été entraîné et développé par Runway Research à partir de l'article original « Structure and Content-Guided Video Synthesis with Diffusion Models » de Runway Research[30].

Gen-2 est un système d'IA multimodal capable de générer des vidéos originales à partir de texte, d'images ou de clips vidéo. Ce modèle fait suite à Gen-1 et intègre une modalité permettant de générer des vidéos par du texte. Gen-2 est l'un des premiers modèles de conversion texte-vidéo disponibles sur le marché[31],[32],[33],[34].

Gen-3 Alpha

[modifier | modifier le code]

Gen-3 Alpha est le premier d'une série de modèles à venir entraînés par Runway sur une nouvelle infrastructure conçue pour l'entraînement multimodal à grande échelle. Il présente une amélioration majeure en termes de fidélité, de cohérence et de mouvement par rapport à Gen-2, et constitue une étape vers la construction de modèles du monde général[2].

Les données d'entraînement de Gen-3 proviennent de milliers de vidéos YouTube et potentiellement de films piratés. Un ancien employé de Runway a affirmé à 404 Media qu'une initiative à l'échelle de l'entreprise consistait à compiler des vidéos dans des feuilles de calcul, puis à les télécharger via youtube-dl par le biais de serveurs proxy afin de contourner le blocage de YouTube. Lors de tests, 404 Media a découvert que les noms des YouTubeurs permettaient de générer des vidéos dans leur style respectif[35].

En mars 2025, Runway a lancé Gen-4, un modèle d'IA de génération vidéo que l'entreprise a décrit comme son outil le plus avancé à ce jour. Selon l'entreprise, il peut générer des personnages, des objets et des environnements cohérents d'une scène à l'autre, en utilisant des images de référence et des indications textuelles[36].

Contrairement aux modèles précédents qui traitaient chaque image comme une tâche créative distincte, avec des liens ténus entre elles, Gen-4 permet aux utilisateurs de générer des personnages cohérents quelles que soient les conditions d'éclairage, à partir d'une image de référence de ces personnages[37]. Ce modèle a introduit plusieurs fonctionnalités clés conçues pour répondre aux défis persistants de la génération vidéo par IA, notamment en matière de cohérence visuelle et de continuité narrative, qui donnaient auparavant aux contenus générés par IA un aspect décousu[38].

Gen-4 Turbo

[modifier | modifier le code]

Gen-4 Turbo, sorti en avril 2025[39], est une version plus rapide et plus économique de Gen-4. Le modèle Turbo utilise moins de crédits par seconde de vidéo.

Avec Gen-4 References, les utilisateurs peuvent importer des images de référence servant de base à la création de personnages, d'objets, de décors ou d'environnements dans différentes scènes[37]. Le système peut extraire un personnage d'une image et l'intégrer dans différentes scènes, transformer des éléments de personnages ou des environnements, fusionner des styles visuels entre images ou combiner des éléments provenant de sources multiples[40].

En juillet 2025, Runway a lancé Aleph, qui permet d'effectuer des modifications sur les vidéos d'entrée, notamment l'ajout, la suppression et la transformation d'objets, la génération de n'importe quel angle de scène et la modification du style et de l'éclairage[41]. Avec le lancement d'Aleph, le modèle Gen-4 peut désormais prendre en charge diverses tâches de montage, notamment la manipulation d'objets, la transformation de scènes, la génération d'angles de caméra et le transfert de style[42].

Act-One et Act-Two

[modifier | modifier le code]

Act-One, sorti en octobre 2024, permet aux utilisateurs d'importer une vidéo de conduite et de la transformer en personnages réalistes ou animés[43]. Avec Act-One, les créateurs peuvent animer des personnages dans différents styles sans équipement de capture de mouvement ni système de rigging, tout en conservant des éléments importants de la performance originale, tels que le regard, les micro-expressions et le rythme subtil des mouvements[44],[45].

Act-Two, une version étendue, permet aux utilisateurs d'animer des personnages à partir d'une « driving vidéo » (c'est-à-dire à partir d'une vidéo-source qui drive, qui pilote, entraîne et contrôlera l'animation d'un personnage, où l'on voit par exemple une personne en train de jouer, bouger, s’exprimer. Cette performance sert ensuite de référence pour générer ou animer un personnage virtuel.

À partir de ce driver, l'IA contrôle les gestes et les mouvements du corps en ajoutant automatiquement le contexte et des mouvements environnementaux le cas échéant[46].

Mondes de jeu

[modifier | modifier le code]

En 2025, Runway a lancé Game Worlds, décrit comme « un aperçu des nouvelles frontières des expériences narratives non linéaires »[47]. Cet outil permet aux utilisateurs de jouer ou de créer des aventures textuelles accompagnées d'images[48]. Runway présente Game Worlds comme « un premier pas vers la prochaine ère du jeu vidéo » et affirme qu'il « représente la nouvelle frontière » du divertissement et de l'éducation interactifs[49].

Partenariats

[modifier | modifier le code]

Industrie du divertissement

[modifier | modifier le code]

En août 2025, Runway s'est associé à IMAX pour projeter les films primés du AI Film Festival dans 10 grandes villes des États-Unis. Jonathan Fischer, directeur des contenus chez IMAX, a déclaré à propos de ce partenariat : « L'expérience IMAX a généralement été réservée aux cinéastes les plus accomplis et visionnaires du monde. Nous sommes ravis d'ouvrir nos horizons et d'utiliser notre plateforme pour expérimenter avec un nouveau type de créateur, à l'aube d'une convergence inédite entre narration et technologie »[50].

Réseaux AMC

[modifier | modifier le code]

En juin 2025, AMC Networks est devenue la première entreprise de câblodistribution à nouer un partenariat officiel avec Runway pour la création de contenu assistée par l'IA[51],[52]. Ce partenariat vise à utiliser la technologie de Runway pour générer des visuels marketing et faciliter la prévisualisation des programmes avant le début de la production[53]. AMC Networks prévoit d'utiliser les outils d'IA pour créer des supports promotionnels sans recourir aux séances photo traditionnelles et pour accélérer la prévisualisation lors du développement[54]. Selon Stephanie Mitchko, cadre chez AMC Networks, ce partenariat a pour objectif d'« améliorer nos méthodes de marketing et de création » tout en fournissant aux partenaires créatifs les outils nécessaires pour « donner vie aux histoires qu'ils souhaitent raconter »[51].

En septembre 2024, Runway a annoncé un partenariat avec Lionsgate Entertainment pour créer un modèle de génération vidéo par IA personnalisé, entraîné sur le catalogue propriétaire du studio, qui compte plus de 20 000 titres de films et de séries télévisées[55],[56]. Ce modèle personnalisé est conçu exclusivement pour l’usage de Lionsgate et n’est pas accessible aux autres utilisateurs de Runway[57].

Ce partenariat, présenté comme le premier du genre entre une entreprise spécialisée en intelligence artificielle et un grand studio hollywoodien, permet aux cinéastes, réalisateurs et créatifs de Lionsgate d'utiliser des vidéos cinématographiques générées par l'IA pour les processus de préproduction et de postproduction[58],[59].

Festival du film de Tribeca

[modifier | modifier le code]

Depuis 2024, Runway collabore avec le Festival du film de Tribeca pour présenter des films générés par l'IA et explorer l'intégration de l'intelligence artificielle dans la réalisation cinématographique[60],[61]. Cette collaboration comprend un partenariat de programmation intitulé « Human Powered », qui propose des courts métrages et des clips musicaux créés à l'aide d'outils d'IA, suivis de séances de questions-réponses avec les cinéastes[62].

Le Festival du film de Tribeca est également un partenaire régulier du Festival du film d'intelligence artificielle de Runway. Ce partenariat a connu une croissance significative : en 2024, le Festival du film d'intelligence artificielle de Runway a reçu environ 3 000 candidatures, soit dix fois plus que l'année précédente[63]. Jane Rosenthal, PDG de Tribeca, a souligné l'importance de collaborer directement avec les entreprises spécialisées en intelligence artificielle afin de favoriser le dialogue sur le rôle de cette technologie dans la réalisation cinématographique, plutôt que de l'éviter ou de la combattre[61].

Runway est intégré aux programmes de design et de réalisation cinématographique de grandes universités, notamment la Tisch School of the Arts de l'université de New York[64], l'UCLA[65], la RISD[66] et Harvard[67]. L'entreprise propose des ressources et un soutien à tarif réduit aux enseignants grâce à son programme « Runway for Educators », en collaborant avec les établissements pour garantir l'accès des étudiants et des classes aux outils créatifs d'IA[68].

Initiatives cinématographiques en IA

[modifier | modifier le code]

Festival du film IA

[modifier | modifier le code]

Depuis 2023, Runway organise chaque année un festival de films d'intelligence artificielle (AIFF) présentant des longs métrages créés à l'aide d'outils d'intelligence artificielle[69].

Le festival a connu une croissance spectaculaire, passant de 300 films soumis et projetés dans de petites salles new-yorkaises lors de sa première édition à plus de 6 000 films soumis en 2025[70]. L'édition 2025 s'est conclue par une projection à guichets fermés à l'Alice Tully Hall du Lincoln Center, attirant des cinéastes et des spectateurs du monde entier[71].

Le festival sert de plateforme aux cinéastes émergents pour explorer les possibilités créatives de la narration assistée par l'IA et est considéré par beaucoup comme un événement important à l'intersection de la technologie et du cinéma[72].

Runway organise le concours de courts métrages Gen:48, un défi de réalisation ultra-rapide qui offre aux participants 48 heures et des crédits de génération d'IA gratuits pour créer des courts métrages de 1 à 4 minutes[73]. Le format du concours est conçu pour encourager l'expérimentation avec les outils d'IA sous contrainte de temps, favorisant ainsi l'innovation dans la réalisation de films assistée par l'IA[74]. La première édition a été lancée en octobre 2023, suivie d'une deuxième en février 2024, et les éditions suivantes se sont poursuivies jusqu'en 2025[75]. L'« Édition Aleph » d'août 2025 a marqué la cinquième itération du concours[73]. Les participants reçoivent des crédits Runway et un accès temporaire et illimité aux outils de Runway pendant les 48 heures[75]. Le concours est devenu un événement incontournable de la communauté du cinéma d'IA, les gagnants remportant des prix tels que des récompenses en espèces, des crédits Runway et la possibilité de projeter leurs films au Festival du film d'IA[74].

Références

[modifier | modifier le code]
  1. a b et c (en-US) Cade Metz, « Instant Videos Could Represent the Next Leap in A.I. Technology », The New York Times,‎ (lire en ligne, consulté le ).
  2. a b et c (en) « Generative AI's Next Frontier Is Video », Bloomberg.com,‎ (lire en ligne, consulté le ).
  3. a et b (en-US) James Vincent, « Text-to-video AI inches closer as startup Runway announces new model », The Verge, (consulté le ).
  4. (en-US) « Introducing Runway Gen-4 », runwayml.com, (consulté le ).
  5. (en-US) « Introducing Runway Gen-4.5:A new frontier for video generation. », runwayml.com, (consulté le ).
  6. (en) « Runway Research | Introducing Act-One », runwayml.com (consulté le ).
  7. (en) « Runway Research | Introducing Runway Game Worlds », runwayml.com (consulté le ).
  8. (en) Lila Shapiro, « Everyone Is Already Using AI (And Hiding It) » [archive], sur Vulture, (consulté le ).
  9. (en-US) « Distorting Reality with Dan Streit », Runway (consulté le ).
  10. (en-US) Trace William Cowen, « Kanye West Shares Unsettling Video for "Vultures (Havoc Version)" Ahead of Ty Dolla Sign Collab Album Release », Complex (consulté le ).
  11. (en-US) « How Runway took The Late Show edits from five hours to five minutes » [archive du ], Runway.
  12. (en-US) « How Drew Emery uses Runway to edit content for Top Gear America & Cooper's Bar » [archive du ], Runway (consulté le ).
  13. (en) « TIME100 AI 2023: Cristóbal Valenzuela », Time,‎ (lire en ligne [archive du ], consulté le ).
  14. Julia Black, « 'Not Everyone Is Trying to Build God': Runway CEO Cristóbal Valenzuela Tries to Dampen the Doomerism », The Information (consulté le ).
  15. (en-US) Kyle Wiggers, « RunwayML raises $8.5 million for its AI-powered media creation tools », VentureBeat,‎ (lire en ligne [archive du ], consulté le ).
  16. (en-US) « Runway raises $35M Series B | Runway Blog », Runway (consulté le ).
  17. (en) Kenrick Cai, « The AI Founder Taking Credit For Stable Diffusion's Success Has A History Of Exaggeration », Forbes (consulté le ).
  18. a et b (en) « The original startup behind Stable Diffusion has launched a generative AI for video », MIT Technology Review (consulté le ).
  19. (en) Kenrick Cai, « Runway Raises $50 Million At $500 Million Valuation As Generative AI Craze Continues », Forbes (consulté le ).
  20. (en) « AI Video Startup Runway Raises $141 Million From Google, Nvidia », Bloomberg.com,‎ (lire en ligne [archive], consulté le ).
  21. « Google Invests in AI Startup Runway to Wrest Cloud Business From AWS », The Information (consulté le ).
  22. Julia Black, « 'Not Everyone Is Trying to Build God': Runway CEO Cristóbal Valenzuela Tries to Dampen the Doomerism », The Information (consulté le ).
  23. (en-US) « Featured interview: Runway AI CEO Chris Valenzuela - First Move with Julia Chatterley - Podcast on CNN Audio », CNN (consulté le ).
  24. (en) « TIME100 Most Influential Companies 2023: Runway », Time,‎ (lire en ligne [archive du ], consulté le ).
  25. (en-US) Sheena Vasani, « Runway says its latest AI video model can actually generate consistent scenes and people », The Verge, (consulté le ).
  26. (en-US) Kyle Wiggers, « Runway, best known for its video-generating AI models, raises $308M », TechCrunch, (consulté le ).
  27. (en) James Vincent, « Create generative AI video-to-video right from your phone with Runway's iOS app », The Verge, (consulté le ).
  28. (en-US) Kyt Dotson, « Stable Diffusion developer Runway raises $50M to create AI multimedia tools », SiliconANGLE, (consulté le ).
  29. (en) Rachel Metz et Mark Bergen, « Stability AI Is Losing Executives, Engineers and Its Edge » [archive du ] Accès payant, sur bloomberg.com (consulté le ).
  30. (en-US) « Gen-1 by Runway », Runway (consulté le ).
  31. (en) « Text to Video Generative AI Is Finally Here and It's Weird as Hell », Gizmodo, (consulté le ).
  32. (en-US) Kyle Wiggers, « Runway's Gen-2 shows the limitations of today's text-to-video tech », TechCrunch, (consulté le ).
  33. (en) Avram Piltch, « Runway's Powerful Gen-2 Text-to-Video Tool Now Available to Everyone for Free », Tom's Hardware, (consulté le ).
  34. (en-US) James Vincent, « Text-to-video AI inches closer as startup Runway announces new model », The Verge, (consulté le ).
  35. (en) Samantha Cole, « AI Video Generator Runway Trained on Thousands of YouTube Videos Without Permission », sur 404 Media, (consulté le ).
  36. (en-US) Kyle Wiggers, « Runway releases an impressive new video-generating AI model », TechCrunch, (consulté le ).
  37. a et b (en-US) « Gen-4 - Gen-4 References | Runway Academy », Runway (consulté le ).
  38. (en) « Runway Research | Introducing Runway Gen-4 », runwayml.com (consulté le ).
  39. (en) « Runway raised a $308M Series D round following its Gen-4 video generation model launch », Data Phoenix, (consulté le ).
  40. (en-US) « Creating with Gen-4 Image References », Runway (consulté le ).
  41. (en) « Runway Research | Introducing Runway Aleph », runwayml.com (consulté le ).
  42. « Introducing Runway Aleph », Runway Research, (consulté le ).
  43. « Introducing Act-One », Runway Research, (consulté le ).
  44. Carl Franzen, « 'This is a game changer': Runway releases new AI facial expression motion capture feature Act-One », VentureBeat, (consulté le ).
  45. Chris McKay, « Runway's Act-One Lets You Animate AI-Generated Characters with a Video », Maginative, (consulté le ).
  46. (en-US) « Creating with Act-Two », Runway (consulté le ).
  47. (en) « Runway Research | Introducing Runway Game Worlds », runwayml.com (consulté le ).
  48. (en) « Runway AI's New Tool Will Let You Make Video Games », PCMAG, (consulté le ).
  49. (en-US) « Game Worlds Beta FAQ », Runway (consulté le ).
  50. (en) Leslie Katz, « AI Films Make The Leap From Social Feeds To IMAX Theaters », Forbes (consulté le ).
  51. a et b (en-US) Steven Zeitchik, « AMC Networks Inks Deal With AI Company Runway (Exclusive) », The Hollywood Reporter, (consulté le ).
  52. (en-US) « AMC Networks is teaming up with AI company Runway », Engadget, (consulté le ).
  53. (en-US) Lucas Manfredi, « AMC Networks Is Teaming Up With Runway AI », TheWrap, (consulté le ).
  54. (en) « Runway News | Runway Partners with AMC Networks Across Marketing and TV Development », runwayml.com (consulté le ).
  55. (en-US) « Lionsgate partners with Runway AI to develop custom video generation model », SiliconANGLE, (consulté le ).
  56. Carl Franzen, « Runway inks deal with Lionsgate in first team-up for AI provider and major movie studio », VentureBeat, .
  57. (en-US) Audrey Schomer, « What Lionsgate's Partnership Deal With Runway Means », Variety, (consulté le ).
  58. (en) « Runway News | Runway Partners with Lionsgate », runwayml.com (consulté le ).
  59. (en-US) Todd Spangler, « Lionsgate Will Use AI to Let Filmmakers 'Augment' Their Work, Studio Expects to Save 'Millions' via Pact With Startup Runway », Variety, (consulté le ).
  60. (en) « Runway News | Exploring the Future of Filmmaking: Runway's programming partnership with Tribeca Festival 2024 », runwayml.com (consulté le ).
  61. a et b (en-US) Marty Swant, « Why the Tribeca Film Festival embraced AI movies with OpenAI and Runway », Digiday, (consulté le ).
  62. « Human Powered: AI Shorts Program | 2024 Tribeca Festival », Tribeca (consulté le ).
  63. (en-US) ByPatrick Kulp, « AI moviemaking grows up at Runway's film festival », Tech Brew (consulté le ).
  64. (en) « NYU Tisch Graduate Program brings Runway tools to the Martin Scorsese Virtual Production Center », tisch.nyu.edu (consulté le ).
  65. (en) « Runway Customers | Innovating Media Development at UCLA's Department of Film, Television and Digital Media with Hans-Martin Liebing », runwayml.com (consulté le ).
  66. (en) « Runway Customers | Integrating Runway in Art Education at RISD with Daniel Lefcourt », runwayml.com (consulté le ).
  67. (en) « Runway Customers | HKU Business School Implements Runway AI Tools in Masters Programmes », runwayml.com (consulté le ).
  68. (en) « Runway for Educators », runwayml.com (consulté le ).
  69. (en) « AIFF 2025 | AI Film Festival », aiff.runwayml.com (consulté le ).
  70. (en) Allie Garfinkle, « Runway's AI transformed films. The $3 billion startup's founders have a bold, new script: building immersive worlds », Fortune (consulté le ).
  71. (en-US) ByPatrick Kulp, « Hundreds gather for experimental shorts at Runway's AI film festival », Tech Brew (consulté le ).
  72. (en-US) Steven Zeitchik, « A New York Startup Just Threw a Splashy Event to Hail the Future of AI Movies », The Hollywood Reporter, (consulté le ).
  73. a et b (en) « Gen:48 Aleph Edition | Runway », runwayml.com (consulté le ).
  74. a et b (en-US) « Runway GEN:48 AI Film Competition », Curious Refuge, (consulté le ).
  75. a et b (en-US) « Gen:48 Aleph Edition FAQ », Runway (consulté le ).

Articles connexes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]

Bibliographie

[modifier | modifier le code]
  • (en) Biying Guo, Xinyi Shan et Jeanhun Chung, « A Comparative Study on the Features and Applications of AI Tools -Focus on PIKA Labs and RUNWAY », International Journal of Internet, Broadcasting and Communication, vol. 16, no 1,‎ , p. 86-91 (ISSN 2288-4920, e-ISSN 2288-4939, DOI 10.7236/ijibc.2024.16.1.86, lire en ligne, consulté le ).
  • (en) Ankita Mittal, Bhawna Nigam et Vasundhra Nigam, « A Comparative Analysis of Generative AI Models Based on Empirical Evaluation for Video Generation from Structured Scripts », Data Science and Big Data Analytics, Springer Nature Switzerland,‎ , p. 503–513 (ISBN 978-3-032-05373-2, DOI 10.1007/978-3-032-05373-2_44, lire en ligne, consulté le ).