Apple vient tout juste de déployer la première bêta d’iOS 18.2 pour les développeurs, avec à la clé, de nombreuses nouveautés liées à Apple Intelligence. Parmi celles-ci, la firme de Cupertino a introduit Visual Intelligence, un module très similaire à ce que propose Google avec Google Lens, à une différence de taille près : il s’exécute rapidement et tire ses informations de plusieurs sources.
Visual Intelligence, le Google Lens d’Apple
Contrairement à Google Lens, Visual Intelligence ne se lance pas au sein d’une application. Pour y accéder, il suffit de maintenir enfoncé brièvement le nouveau bouton « commande de l’appareil photo » de l’iPhone 16, ce qui en fait d’ailleurs une fonction exclusive à la gamme iPhone 16.
Concrètement, une fois le module activé, il suffit de pointer la caméra de l’iPhone en direction de l’objet, ou du lieu pour lequel vous souhaitez lancer une recherche. Vous pourrez ainsi identifier rapidement la race d’un chien, cette magnifique plante dont vous ignorez le nom dans le parterre de fleurs de votre voisin, ou afficher les informations de ce restaurant devant lequel vous venez de passer.
Apple explique ainsi qu’il est possible d’identifier des lieux (grâce aux informations d’Apple Maps), ou encore de créer à la volée un événement dans le calendrier avec Visual Intelligence. « Tout cela est fait de manière privée en utilisant une combinaison d’intelligence locale et de services Apple qui ne stockent jamais vos images » indique par ailleurs Craig Federighi dans la vidéo de démonstration de Visual Intelligence.
De notre côté, nous n’avons malheureusement pas pu essayer ces fonctionnalités, chaque requête tournant en rond, sans jamais afficher aucune réponse. La fonction étant pour l’heure disponible en bêta, il s’agit sans doute d’un raté à l’allumage qui sera certainement corrigé rapidement.
Des réponses fournies par des services tiers
Outre les réponses propres fournies par Apple Intelligence, Visual Intelligence propose également deux autres options pour rechercher des informations à partir d’une image captée avec votre iPhone. Vous pouvez ainsi lancer une recherche visuelle (Search), ou demander directement ce que c’est à Apple Intelligence (Ask).
Pour la première (Search), Apple n’a pas eu beaucoup d’effort à fournir. La firme de Cupertino lance tout simplement la requête sur… Google ! Les résultats visuels obtenus s’affichent directement sur une page du moteur de recherche, comme avec Google Lens.
Pour la seconde, Ask, Apple s’en remet tout simplement à ChatGPT. L’intelligence artificielle d’OpenAI est en effet interrogée sur le contenu de l’image captée et affiche immédiatement un descriptif très scolaire, dans un pop-up s’affichant en haut de l’écran.
En l’état, Visual Intelligence, bien que pratique par sa rapidité d’utilisation, n’a rien de très révolutionnaire. Il faudra sans doute attendre que le module soit déployé chez tous les utilisateurs (et évolue dans de prochaines mises à jour ?) pour que de nouveaux usages se développent autour.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.