Les chercheurs du Max-Planck-Institut für Hirnforschung, un institut allemand spécialisé dans les neurosciences, ont découvert un moyen de décoder le langage des animaux. Comme le rapportent nos confrères du New York Times, les chercheurs ont utilisé des algorithmes d’apprentissage automatique pour analyser les bruits de sept colonies de rat-taupe nu.
La traduction par le biais de l’apprentissage automatique
L’apprentissage automatique, ou « machine learning » en anglais, désigne un domaine d’expertise de l’intelligence artificielle. Il permet à des algorithmes à évoluer et à apprendre sans avoir été programmés au préalable. Ils progressent grâce aux données, sans l’intervention d’un programmeur. Pour fonctionner, les algorithmes ont besoin d’une quantité massive de données.
Pour mémoire, c’est déjà grâce au machine learning que la traduction d’une langue à une autre a considérablement évolué ces dernières années. Dernier exploit en date : le programme NLLB-200 de Meta. Ce programme d’intelligence artificielle est capable de prendre en charge la traduction de 200 langues, dont des dialectes méconnus.
En s’appuyant sur des algorithmes, les chercheurs ont étudié 36 000 gazouillis émis par les rats-taupes nus. Apparemment, chaque colonie dispose de son propre dialecte. De plus, la manière de communiquer évolue dans le temps. Comme les êtres humains, les rats-taupes nus transmettent leur dialecte de génération en génération.
Sur le même thème : L’intelligence artificielle est aussi dangereuse que l’arme nucléaire, met en garde Eric Schmidt, ancien PDG de Google
Les nombreux projets en cours
Les projets visant à décoder le langage animal ne manquent pas. Grâce aux algorithmes, des chercheurs tentent de comprendre les cris émis par les corbeaux, les grincements des souris ou la syntaxe d’un cachalot, énumère le New York Times. Les lémuriens, les poulets, les cochons et les chauves-souris sont également au cœur des expérimentations.
« Nous essayons de créer un Google Traduction pour animaux », déclare Diana Reiss, experte en cognition et en communication des dauphins au Hunter College.
Avec l’apprentissage automatique, les scientifiques sont désormais capables de repérer la voix d’un animal précis grâce à son timbre et distinguer les sons générés en fonction d’un événement.
Parmi les innovations les plus avancées de ce domaine, on trouve DeepSqueak. Mis au point à l’université de Washington, ce logiciel est capable d’analyser le langage ultrason des rongeurs, inaudible aux oreilles humaines, en un temps record. Dans le cadre d’une expérimentation, le programme, basé sur l’intelligence artificielle, est parvenu à reconnaître un son joyeux, lié à la prise d’une substance ou la présence d’une femelle, d’un son triste. Le logiciel permet de comprendre l’état psychologique d’un animal.
DeepSqueak est par ailleurs en mesure d’analyser les sons sous-marins envoyés par des mammifères, comme des baleines. Le programme peut ensuite classer tous les sons enregistrés, en fonction des espèces. Il a déjà permis de déceler la présence de baleines bleues dans l’océan Indien et de découvrir une nouvelle espèce de baleine à bec. Comme c’est le cas pour les rats-taupes nus, chaque espèce de baleine a un dialecte différent.
L’importance des données
Dans la même optique, le projet CETI ( Cetacean Translation Initiative) a vu le jour en 2020. L’initiative, qui comprend notamment des experts en apprentissage automatique, des biologistes marins, des roboticiens ou des linguistes, prévoit d’installer « des stations d’écoute de baleines » dans l’océan. Grâce à des microphones, les scientifiques enregistreront les sons émis. Cet afflux massif de données devrait, à terme, permettre de décoder le langage des baleines.
En parallèle, les chercheurs de l’Université de Tel Aviv ont conçu un logiciel destiné à comprendre le dialecte des chauves-souris. Le programme est parvenu à classer 61 % des appels agressifs émis par une colonie.
« Le même appel aura des nuances légèrement différentes, que nous avons pu détecter à l’aide de l’apprentissage automatique », explique le Dr. Yossi Yovel, en charge de l’étude.
Là encore, il a fallu que les algorithmes absorbent une immense quantité de données. C’est pourquoi les chercheurs ont surveillé des groupes de chauves-souris pendant 75 jours à l’aide d’une caméra et d’un microphone.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : New York Times