Apple a trouvé une astuce à l’une des limites des appels en visiophonie : quand on regarde son téléphone, on se concentre sur l’écran et non sur le module caméra qui nous capture. Ce qui fait qu’on a toujours l’impression que notre interlocuteur regarde un peu ailleurs.
Grâce à sa plate-forme logicielle de réalité augmentée ARKit, Apple a intégré dans sa version beta d’iOS 13 – qui devrait arriver en septembre avec les nouveaux iPhone – une fonctionnalité de modification du regard dans FaceTime.
How iOS 13 FaceTime Attention Correction works: it simply uses ARKit to grab a depth map/position of your face, and adjusts the eyes accordingly.
Notice the warping of the line across both the eyes and nose. pic.twitter.com/U7PMa4oNGN
— Dave Schukin 🇺🇦 (@schukin) July 3, 2019
Appelée « FaceTime Attention Correction », cette fonction utilise ARKit pour créer une cartographie de votre visage et réajuster en temps réel la position de vos yeux. Cela donne ainsi l’impression à votre interlocuteur que vous regardez le module caméra en façade. Si l’on en croit la liste des terminaux compatibles ARKit, FaceTime Attention Correction pourrait fonctionner à partir de l’iPhone 6s (l’iPhone 6 n’étant pas compatible avec iOS 13). Il n’est toutefois pas exclu que la caméra TrueDepth des iPhone X, XS et XR soit nécessaire au bon fonctionnement de la technologie.
Comme le souligne The Verge qui s’est fait l’écho de cette fonctionnalité, censée arriver dans les versions beta publiques dans les jours qui viennent, on ne sait pas encore si cette fonctionnalité sera opérationnelle sur un seul ou sur plusieurs visages.
Source : The Verge
Mise à jour 13h30 : ajout de précisions sur la compatibilité de FaceTime Attention Correction.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.