De plus en plus d’entreprises interdisent à leurs employés d’utiliser l’IA dans le cadre de leur travail. C’est le cas d’Apple, qui demande à ses salariés de ne pas réclamer l’aide d’un chatbot, et de Samsung, qui menace même de licencier les employés qui enfreignent la règle. Les deux constructeurs redoutent que les informations confidentielles fournies à un chatbot comme ChatGPT, Google Bard ou Bing Chat soient automatiquement absorbées par le modèle linguistique. Ces données précieuses risquent alors de se retrouver entre les mains de la concurrence ou d’une entité malveillante.
À lire aussi : Pourquoi Google reporte l’arrivée de Bard en Europe
Google est inquiet au sujet de Bard
Google, l’une des entreprises engagées dans la course à l’IA, a des inquiétudes similaires. D’après les sources interrogées par Reuters, le géant de la recherche a récemment mis en garde ses employés au sujet des robots conversationnels. La société demande expressément à ses collaborateurs de ne pas fournir d’informations confidentielles à une IA… même s’il s’agit de Bard, son propre chatbot. Dans un mémo publié le 1ᵉʳ juin, Google déconseille explicitement à ses salariés de confier des secrets à l’IA :
« N’incluez pas d’informations confidentielles ou sensibles dans vos conversations avec Bard ».
Le groupe a notamment demandé à ses développeurs de ne pas utiliser tel quel le code informatique généré par Bard Interrogé par Reuters, Google estime que le chatbot peut « faire des suggestions de code indésirables ». La firme n’a pourtant pas hésité à présenter son IA comme un assistant de codage à la suite de la dernière mise à jour. Google précise que, malgré ses défauts en matière d’écriture de code, Bard reste un bon assistant pour les développeurs. Du reste, Bard peut toujours être utilisé pour analyser du code existant et pour repérer des erreurs.
Comme ChatGPT ou Bing Chat, Bard est susceptible d’absorber les données fournies par ses interlocuteurs. Ces informations, qui peuvent être sensibles, sont alors stockées dans la montagne de données qui abreuve le modèle linguistique derrière Bard, PaLM 2. Une fois ingurgitées, les données pourraient théoriquement ressortir lors d’une conversation avec un autre utilisateur. Comme l’expliquait Sundar Pichai, PDG de Google, en avril dernier, les modèles d’IA restent « une boîte noire », dont le fonctionnement est encore obscur.
Notez qu’une restriction analogue avait déjà été mise en place en amont de la sortie Bard. Les premiers testeurs internes étaient en effet invités à faire preuve de prudence dans leurs conversations avec l’intelligence artificielle. En mettant en garde ses employés, Google s’aligne tout simplement sur sa politique habituelle en matière de protection de l’information, en vigueur bien avant l’arrivée de Bard, explique l’entreprise à Reuters.
A contrario de Google, Samsung ou Apple, de nombreux professionnels se servent d’une IA générative comme ChatGPT sans s’inquiéter des risques en matière de confidentialité. D’après une étude de Fishbowl, un réseau social professionnel, 43 % des individus utilisent un chatbot sans en avertir leur hiérarchie.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Reuters