Disney+ débarquera finalement en France le 7 avril, avec son catalogue gigantesque, ses grands classiques, ses perles rares, son armada de super héros et bien sûr, une célèbre galaxie lointaine, très lointaine… Avec, aux confins de sa bordure extérieure, la série The Mandalorian et ses décors incroyables, tant pour leur exotisme que pour ce qu’ils sont, une petite révolution.
Pourquoi ? Parce que comme pour les films qui remettent en scène les aventures de Simba le lionceau ou de Mowgli « le petit d’homme » de façon plus réaliste que jamais, la réalisation des effets spéciaux, et notamment des décors, est à couper le souffle.
S’abonner dès maintenant à Disney+ à partir de 6,99 par mois
The Mandalorian, l’Unreal Engine et Jon Favreau
En l’occurrence, la magie ne vient pas d’Hollywood mais, pour une bonne part, de Cary, en Caroline du Nord, siège de la société Epic Games. Ce sont en effet en partie des moteurs de jeux vidéo qui ont été utilisés pour façonner la plupart des décors de ces oeuvres. Unity pour les deux classiques revisités de Disney et l’Unreal Engine 4 pour la première série Star Wars non-animée (à l’inverse de Clone Wars ou encore Rebels). Tous les films et séries citées précédemment ont été tournés par un seul homme, Jon Favreau, un adepte des effets spéciaux réalistes et qui voit dans les moteurs 3D de jeux vidéo l’avenir de la scénographie et de la réalisation de décors imaginaires.
Pour The Mandalorian, John Favreau a fait appel aux talents des équipes d’Epic (le papa de l’Unreal Engine et de Fortnite) et d’ILM (le studio d’effets spéciaux de LucasFilms/Disney) pour concevoir un très grand nombre de décors des épisodes de la série.
Dans ce contexte, un moteur de jeu prend tout son sens. Il réduit les frais, fait gagner du temps et apporte surtout toute sa flexibilité. Autant d’atouts recherchés dans l’industrie des effets spéciaux.
À lire aussi : Voilà à quoi ressembleront bientôt nos jeux vidéo
Stagecraft, une révolution en cercle
L’Unreal Engine est la pierre angulaire d’une nouvelle approche qui réussit l’exploit d’être à la fois une révolution et dans l’air du temps. Une révolution qui porte un nom, Stagecraft. Notons pour l’histoire que John Favreau n’est pas le premier à l’utiliser et que cette approche technologique avait déjà été expérimentée dans une forme plus restreinte pour Solo : A Star Wars Story.
Au départ, on trouve donc l’Unreal Engine, grâce auquel il est possible de modeler les décors les plus exotiques qu’on puisse imaginer. Non seulement il est possible de les créer mais aussi de les modifier à l’envi, comme un développeur de jeux le ferait pour les niveaux d’un jeu AAA.
Une fois le décor validé, qu’il s’agisse d’une planète désertique ou d’une base spatiale, il est projeté sur un autre élément clé de Stagecraft, un grand écran haute définition de 21 mètres, courbe (270 degrés) et dont le système de rétroéclairage ne crée pas de déformations ou de parasites visuels. Pour que l’illusion soit parfaite, les ingénieurs en charge des effets spéciaux ont mis au point une technique qui permet de modifier les perspectives affichées en fonction des mouvements de la caméra, afin que l’effet soit le plus réaliste possible.
Au milieu du cercle formé par cet écran HD géant se trouve la scène principale de presque 22 mètres de diamètre, sur laquelle évoluent les acteurs et où sont disposés des éléments physiques de décor. Oui, il en faut quand même un peu, notamment pour les interactions directes.
Plus vrai que nature
Les résultats obtenus avec Stagecraft semblent particulièrement impressionnants. A en croire une anecdote, rapportée par Kathleen Kennedy, présidente de Lucasfilm, le rendu est si proche de la réalité qu’un responsable de Disney qui visitait le plateau de The Mandalorian et marchait sur la scène entourée de l’écran s’est étonné : « Je croyais que vous deviez ne pas construire de décor ? ». « Il n’avait aucune idée qu’il se tenait sur un plateau virtuel », continuait-elle amusée à l’occasion d’une rencontre organisée par le blog Slashfilm.
Grâce à Stagecraft, les scènes filmées paraissent donc encore plus réalistes. Simplement parce que les environnements ne sont pas ajoutés a posteriori (technique du fond vert) mais bien filmés par les caméras, équipées d’optiques spéciales et capables de suivre les acteurs.
Sont ainsi évités les flous, les problèmes de perspectives ou d’échelles qui sont à prendre en compte lors de l’incrustation des personnages dans des lieux qui n’existent pas du tout.
En outre, que ce soient les acteurs ou l’équipe de tournage, tous peuvent avoir une meilleure perception de ce qui les entourent. Il est ainsi plus facile de jouer et d’agir plus naturellement pour les premiers, et de mieux anticiper les mouvements de caméra pour les seconds.
Des mouvements qui, en plus, grâce aux efforts conjoints d’Epic et ILM, peuvent être pré-calculés dans le moteur afin d’avoir une idée du rendu final. Ce travail préparatoire permet même d’élaborer un itinéraire et de l’envoyer à certaines caméras du plateau qui ajustent leur positionnement et les éventuels mouvements à effectuer en fonction des rendus pré-calculés par le moteur.
https://www.youtube.com/watch?v=apLzZBqfqeU?t=4182
Avec l’Unreal Engine et la bonne puissance de calcul (des cartes Nvidia pour The Mandalorian), la programmation des ombres, des lumières et des reflets peut aussi se faire à la volée (ou presque). Il est même possible de déplacer des éléments d’arrière-plan (un arbre, une montagne) s’ils venaient à gêner le champ ou ne renvoyait pas une impression de réalisme à la hauteur des attentes du réalisateur.
Jon Favreau a admis dans plusieurs interviews que recalculer une scène pouvait prendre jusqu’à plusieurs heures, même avec l’Unreal Engine, mais que c’était bien moins de temps qu’il en aurait fallu pour créer les décors a posteriori, en CGI. Et moins coûteux aussi.
Enfin, l’Unreal Engine permet de conserver un décor fixe ou en mouvement lent pendant des heures, non-soumis aux aléas des intempéries ou du cycle jour-nuit. Tourner plusieurs scènes, en refaire certaines sans être pressé par le directeur de la photographie qui a peur que la lumière ne change et ne l’oblige à régler à nouveau les caméras, a sans doute contribué à faciliter la vie aussi bien de ceux qui étaient devant que derrière la caméra.
La réalité virtuelle en guise d’outil de pré-production
Mais Stagecraft ne se limite pas au plateau de tournage. Il intervient dès le début du processus de réalisation, grâce à la réalité virtuelle. Cette technologie est mise à contribution afin de prévisualiser certains décors ou scènes générées par l’Unreal Engine.
Lors d’un entretien donné au cours du salon Siggraph 2019 à un blog spécialisé sur les effets spéciaux, John Favreau a vanté le bénéfice de la VR, indiscutable pour lui.
Avant même de tourner, il lui est ainsi possible d’explorer à 360° les décors, et les arrière-plans. Un changement à opérer ? Pas besoin d’attendre que les images soient affichées sur les grands écrans courbes pour s’en rendre compte. Il peut les demander, le casque vissé sur le bout du nez. De quoi renforcer la cohérence du positionnement des objets dans un décor ou même prévenir les perspectives faussées que la caméra pourrait éventuellement saisir.
S’abonner dès maintenant à Disney+ à partir de 6,99 par mois
Il semble même que les déformations naturelles créées par les optiques des casques VR aient servi à affiner des effets qui sont, ensuite, captés par les objectifs puis, au final, par l’oeil humain.
Stagecraft n’est que le nom d’un des fruits nés de l’histoire d’amour entre le cinéma et le jeu vidéo. Une romance qui n’est donc pas qu’une affaire de mauvaises adaptations et de déceptions souvent amères. Les progrès du second nourrisse le premier, le change, l’améliore, donne aux réalisateurs la possibilité de raconter des histoires encore plus extraordinaires, à la croisée de deux mondes.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.