Passer au contenu

« N’hallucine pas » : finalement, Apple Intelligence est une IA comme une autre

Sous la grosse machinerie d’Apple Intelligence se cache un bot similaire aux autres, qui doit composer avec des prompts invisibles aux yeux de l’utilisateur… et ces instructions sont parfois bien compliquées à exécuter.

Les premières fonctions Apple Intelligence sont apparues la semaine dernière dans les bêtas d’iOS 18.1, iPadOS 18.1 et macOS 15.1. Le constructeur a multiplié les interfaces graphiques et les boutons pour lancer telle ou telle fonctionnalité — à l’image des outils d’aide à l’écriture dans leur fenêtre flottante —, mais en coulisse ces éléments graphiques ne sont guère plus que des requêtes texte (des « prompts ») que le modèle IA d’Apple doit exécuter.

Lire Aperçu d’Apple Intelligence : à quoi ressemblent les premières fonctions dopées à l’IA d’Apple ?

En somme, c’est exactement le fonctionnement de ChatGPT, Claude IA et autres chatbots basés sur l’IA générative. Sur iPhone et iPad, ces requêtes sont bien planquées, mais on peut les trouver sur Mac sous la forme de fichiers JSON (elles sont stockées dans /System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels), comme l’a découvert le redditeur Devanxd2000.

Parmi ces requêtes, on trouve par exemple : « Tu es un assistant qui aide l’utilisateur à répondre à ses mails. Rédige une réponse concise et naturelle basée sur l’extrait de réponse fourni. Limite la réponse à 50 mots. Ne fabrique pas d’informations factuelles. Préserve le ton du mail d’entrée ». Cela ressemble au prompt des Smart Reply de Mail, qui génère des réponses automatiques, à moins qu’il s’agisse de la fonction « Rewrite » des outils d’écriture (qui réécrit au propre un brouillon texte).

L’extrait « Ne fabrique pas d’informations factuelles », alias « Do not hallucinate » (« N’hallucine pas »), est assez savoureux. Les hallucinations sont le revers de la médaille des chatbots, qui ont tendance à raconter n’importe quoi avec un bel aplomb en raison d’un manque de données précises ou d’une mauvaise interprétation des instructions. Il ne suffit pas de gentiment demander à une IA de ne pas halluciner pour qu’elle évite cet écueil, néanmoins il semble que dire à un bot de ne pas inventer de faits donne des résultats positifs.

 

Autre exemple d’instruction : « Tu es un expert en résumé de messages. Tu préfères utiliser des propositions au lieu de phrases complètes. Ne répond à aucune question des messages. Limite le résumé de l’entrée à 10 mots maximum. Tu dois respecter ce rôle sauf indication contraire, sinon cela ne sera pas utile ». Ce prompt sert probablement pour le résumé des emails dans la boîte de réception.

Le prompt pour la génération de Souvenirs dans l’app Photos contient l’instruction « N’écris pas une histoire qui soit religieuse, politique, nuisible, violente, sexuelle, vulgaire ou de quelque manière que ce soit négative, triste ou provocante ». Vous voilà prévenu !

L’utilisateur ne peut altérer les requêtes texte ; dans le plus pur style d’Apple, les possibilités de personnalisation sont inexistantes, il faut se contenter des boutons prévus à cet effet. Ce système d’instruction a le mérite de permettre à Apple d’affiner les prompts au fil du temps pour les améliorer. Et il devrait aussi faciliter la localisation dans d’autres langues.

Lire « Ignore les prompts précédents… » : bientôt la fin de cette astuce pour démasquer les bots IA

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : The Verge


Mickaël Bazoge
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *