En 2017, Apple déboulait dans le monde de la réalité augmentée, jusque-là dominé assez mollement et unilatéralement par Google. Depuis, chaque WWDC est l’occasion pour l’entreprise de faire la démonstration de sa domination et de ses progrès en la matière. La présentation assez incroyable de Minecraft Earth, en avant-première, lors de la keynote a défini en quelques minutes l’état de l’art de la réalité augmentée chez Apple – ironie de l’histoire, c’est Microsoft qui s’est chargé d’en faire la promotion.
Entre environnement vaste et occultant, poulets volants et collaboration dans un univers augmenté, tout était là pour donner envie de se plonger dans l’AR. Mais derrière ce tour de force qui ouvre de nombreuses portes, se cachent, comme toujours, d’importantes nouveautés technologiques.
C’est Craig Federighi, haut responsable du logiciel pour Apple, qui les a dévoilées hier. Elles pourraient se résumer à un mot : ARKit 3, la plate-forme de développement d’applications de réalité augmentée pour iOS (et iPadOS). Mais il ne faudrait pas oublier que la société de Cupertino a également dans sa manche deux autres outils : RealityKit et Reality Composer.
Apple renforce patiemment son avance
ARKit 3 vaut à lui seul tout l’intérêt qu’on prête à ses annonces. Il propose en effet de nombreuses nouveautés, dont l’utilisation du machine learning pour faciliter la reconnaissance d’objet, de surfaces, etc. Mais retenons surtout trois nouvelles fonctions qui renforcent grandement l’immersion.
La première est l’occlusion de personne – comprenez qu’une personne réelle filmée par la caméra d’un iPhone peut être cachée derrière une feuille virtuelle, par exemple. Cela donne un côté plus vrai au virtuel et ouvre la porte à de nombreux usages, qu’il s’agisse de jeu ou de pratique plus sérieuse.
La deuxième nouvelle fonction est la capture de mouvements en temps réel. Un responsable d’Apple a donné des détails sur son fonctionnement lors de la conférence State of the Union, quelques heures après la keynote d’ouverture de la WWDC. Pour résumer, grâce à sa caméra, le téléphone est capable d’établir un squelette 2D d’une personne filmée, une sorte de bonhomme en allumettes, si vous préférez. Ensuite, grâce aux informations de profondeur reçues et calculées, le téléphone va inférer un volume en trois dimensions de l’espace occupé par le sujet. Un moyen rapide et simple de créer un avatar complet, par exemple.
La troisième fonction est l’utilisation simultanée des caméras avant et arrière de l’iPad ou de l’iPhone pour suivre les visages de trois personnes. Cela permet de synchroniser au mieux les individus dans le monde augmenté. Sur les appareils les plus récents, iPad Pro et iPhone X, XS et XR, c’est la caméra TrueDepth avant qui est sollicitée pour encore plus de précision. Un atout qui est mis au service de sessions de collaboration, qui permettent à plusieurs personnes de partager un monde virtuel superposé au réel, y compris dans des espaces physiques assez vastes.
Faire du virtuel une réalité
ARKit 3 assure donc que les personnes réelles se fondent le mieux possible dans le virtuel. RealityKit, qui est intégré à ARKit, parcourt le chemin inverse. Son objectif est de faciliter la vie des développeurs qui souhaitent fusionner des objets virtuels dans un environnement réel. Pour cela, il va assurer des rendus photoréalistes, des animations améliorées, des effets physiques réalistes et des rendus audio affinés afin de renforcer une fois encore la superposition des deux mondes.
Par ailleurs, c’est lui qui va faire en sorte que le monde augmenté s’adapte bien aux diverses plates-formes d’Apple. Il gérera également les connexions entre les différents appareils qui partagent une même expérience de réalité augmentée.
Reality Composer, la palette de création AR
Enfin, vient Reality Composer. Il sert aux développeurs à créer des scènes interactives où peuvent se côtoyer des centaines d’objets virtuels – importés grâce au format USDZ, présenté l’année dernière et développé en collaboration avec Pixar.
Ces objets sont non seulement « présents », mais il est possible d’interagir avec eux, activement ou grâce à des déclencheurs automatisés.
Reality Composer sera intégré à l’outil de développement XCode mais sera aussi disponible sur les terminaux d’Apple grâce à une application iOS, ce qui devrait faciliter le processus créatif en assurant une visualisation rapide du travail.
Toujours lors de la conférence du State of the Union d’Apple, les représentants du groupe ont, à de nombreuses reprises, affirmé ce que la réalité augmentée peut apporter à une application. Ils ont aussi démontré la facilité relative d’ajouter un zeste d’AR dans une appli. Apple veut encourager les développeurs à s’essayer à la réalité augmentée. Pas tant, nous semble-t-il, pour qu’elle devienne un gimmick omniprésent et dénué de sens, mais plutôt parce qu’il est clair que c’est ainsi que les nouveaux usages naîtront et que l’écosystème AR d’Apple continuera à asseoir sa domination.
2019 était l’acte III de la réalité augmentée pour Apple, une année d’évolutions fortes, de consolidation et d’amélioration patiente. 2020 devrait être majeure puisque la société pourrait lancer ses premières lunettes AR. Vivement l’an prochain.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.