Vous pensiez que l’anglais dominait le monde ? Pas sûr. « Plus de la moitié du contenu d’internet est en anglais, mais seulement 20% de la population mondiale parle cette langue », souligne Barak Turovsky le chef de produit de Google Traduction.
Google continue donc avec intérêt à enrichir son application de traduction automatique. L’une de ses fonctions permet de traduire un texte visuellement et instantanément en utilisant l’objectif de son smartphone. Jusqu’à maintenant, cette fonction n’était disponible que dans sept langues.
Elle s’enrichit désormais de 27 nouveaux idiomes : le bulgare, le catalan, le croate, le tchèque, le danois, le néerlandais, le filipino, le finnois, le hongrois, l’indonésien, le lituanien, le norvégien, le polonais, le roumain, le slovaque, le suédois, le turc et l’ukrainien. Pour l’occasion, une vidéo sympathique sur l’air de la bamba a été réalisée avec des salariés de Google
Le mode de traduction vocale, qui fonctionne avec 32 langues, a également été mis à jour pour fonctionner plus rapidement sous Android et iOS. La façon dont Google est parvenu à ce résultat est détaillée dans un autre post sur le blog de la firme consacré à la recherche. Voici comment tout cela fonctionne.
La première étape est de trouver les lettres dans l’image soumise au logiciel. Ce qui nécessite d’éliminer tous les éléments visuels qui ne servent à rien. La machine se concentre sur des blocs de pixels de la même couleur et repère s’il y a des lignes continues ce qui présage la présence d’un texte à lire.
Deuxièmement, Google Traduction doit identifier chaque lettre. C’est là que le deep learning est intervenu, de la même façon que Google l’a utilisé il y a quelques années pour différencier les chats des chiens ou différentes espèces d’animal. C’est donc le résultat d’un processus d’apprentissage autonome. Le problème, c’est que les lettres que l’on trouve dans la rue ou un menu de restaurant ne sont pas forcément aussi distinctes que celles d’un texte tapé à l’ordinateur. Il a donc fallu simuler un peu de saleté sur les lettres soumises à la machine comme on le voit ci-dessous.
Troisième étape, Google Traduction traduit les lettres grâce à des dictionnaires. Enfin, quatrième étape, la traduction est affichée dans le même style de police que l’original en surimpression de l’image.
Encore un mot sur le mode hors ligne qui est en soit une performance. Pour arriver à créer un modèle de reconnaissance pertinent et rapide qui fonctionne sans connexion, les équipes de Google ont commencé par développer un petit réseau neuronal – peu puissant. Un « réseau » bien moins rapide et bien plus limité chargé de reconnaître les caractères avec une quantité d’informations bien moindre, elle aussi. L’objectif était alors de trouver l’ensemble de données le plus efficaces possibles, à la fois allégés et aboutissant à un très faible nombre d’erreurs.
Après une succession d’essais et d’ajustements, les ingénieurs de Google ont réussi à faire en sorte que les outils fonctionnent, que les algorithmes soient les plus performants possibles pour pouvoir tourner avec un processeur de smartphone…
Et le résultat est là. La vitesse de traduction s’avère tout à fait bluffante comme nous avons pu le vérfier ! La justesse de la traduction, elle, laisse en revanche parfois à désirer.
A lire aussi :
Une puce dopée au deep learning pourrait rendre nos smartphones bien plus intelligents – 18/05/2015
Sources :
Le blog de Google
Le blog de la vision recherche de Google
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.