Le géant de la tech Google a récemment dû prendre des mesures drastiques pour rectifier le tir face à son nouveau moteur de recherche appuyé sur l’intelligence artificielle générative, baptisé AI Overviews. En effet, de nombreux utilisateurs ont rapporté des réponses pour le moins étranges, voire carrément dangereuses, générées par cet outil. Une situation qui soulève de sérieuses questions sur les défis posés par l’IA.
Quand l’IA déraille : exemples troublants
Parmi les exemples les plus frappants, on peut citer celui relevé par le blogueur Dare Obasanjo. À la question du nombre de présidents musulmans qu’ont connu les États-Unis, AI Overviews a répondu qu’Obama était considéré par certains comme le premier président musulman, une affirmation totalement erronée et problématique. Google a reconnu que cette réponse violait ses règles et l’a rapidement supprimée.
Mais ce n’est pas tout. D’autres internautes ont mis en évidence des suggestions farfelues, comme celle d’ajouter de la colle non toxique au fromage pour qu’il colle mieux à la pizza. Ou encore des réponses manifestement inspirées par des contenus satiriques publiés il y a des années sur les réseaux sociaux.
Google réagit et promet des améliorations
Face à cette situation préoccupante, Google a assuré prendre le problème très au sérieux. La firme de Mountain View dit avoir agi rapidement pour supprimer les réponses problématiques et utiliser ces exemples pour mettre au point des améliorations de son système. Des changements auraient déjà été implémentés.
Nous utilisons ces exemples pour mettre au point des améliorations de notre système, dont certaines ont déjà été mises en place.
– Un porte-parole de Google
AI Overviews : un outil prometteur mais perfectible
Pour rappel, AI Overviews a été présenté par Google mi-mai comme une évolution majeure de son moteur de recherche. Plutôt que de simplement fournir des liens, il génère un texte en réponse à la requête, relayant les liens en seconde position. Une approche novatrice, mais qui comporte visiblement encore des risques.
Ces ratés mettent en lumière toute la complexité du défi posé par l’IA générative aux géants du web. Comment s’assurer de la fiabilité et de la pertinence des réponses, tout en offrant une expérience utilisateur fluide et enrichissante ? La route est encore longue, mais une chose est sûre : ces technologies fascinent autant qu’elles interrogent.
Vers une IA plus fiable et responsable ?
Au-delà du cas d’AI Overviews, c’est toute la question de la responsabilité des entreprises développant des IA qui est posée. Comment éviter la désinformation, les biais, les dérives ? Des garde-fous doivent être mis en place pour garantir une utilisation éthique et bénéfique de ces outils ultra-puissants.
- Transparence sur les données d’entraînement
- Audits réguliers des algorithmes
- Collaboration avec la société civile et les régulateurs
- Éducation des utilisateurs aux biais potentiels
Autant de pistes à explorer pour bâtir une IA plus robuste, au service de l’humain. Car une chose est sûre : malgré ces ratés, la révolution de l’IA ne fait que commencer. À nous de veiller à ce qu’elle emprunte le bon chemin, pour le bénéfice du plus grand nombre.
Nous utilisons ces exemples pour améliorer notre système IA. Certains changements ont déjà été mis en place, d’autres suivront. L’IA générative est un immense défi, nous en sommes conscients. Mais son potentiel est tout aussi grand, au service d’une information fiable et enrichie.
— Google France (@GoogleFR) March 10, 2023