L’intelligence artificielle ne cesse de repousser les limites, quitte parfois à s’attirer les foudres des célébrités. Dernière victime en date : l’actrice Scarlett Johansson, qui n’a pas mâché ses mots suite à la dernière démonstration en date du célèbre ChatGPT, développé par la start-up OpenAI. Au cœur de la polémique : l’imitation troublante de la voix de l’actrice par l’assistant virtuel surnommé « Sky ». Une prouesse technologique qui soulève de sérieuses questions éthiques.
ChatGPT et la voix de Scarlett Johansson : la goutte d’eau qui fait déborder le vase
Lorsque OpenAI a dévoilé la semaine dernière les nouvelles capacités de ChatGPT, baptisé GPT-4o, la démonstration en direct de l’assistant « Sky » n’est pas passée inaperçue. Et pour cause : de nombreux observateurs ont immédiatement noté la ressemblance frappante entre la voix synthétique et celle de Scarlett Johansson dans le film Her de Spike Jonze, sorti en 2013. Une similarité loin d’être anodine pour l’actrice, qui n’a pas tardé à monter au créneau.
Quand j’ai entendu la démo publiée, j’ai été choquée, en colère et incrédule que M. Altman ait persisté avec une voix qui ressemblait si étrangement à la mienne, au point que mes amis les plus proches et les médias ne puissent pas faire la différence.
– Scarlett Johansson
Selon l’agent de la star, le patron d’OpenAI Sam Altman aurait approché Scarlett Johansson en septembre dernier pour lui proposer de prêter sa voix à ChatGPT, une offre qu’elle aurait déclinée « après mûre réflexion ». Mais visiblement, cela n’a pas empêché l’entreprise d’aller de l’avant avec une voix très similaire, provoquant l’ire de l’actrice qui dénonce un manque de transparence et de considération pour ses droits.
OpenAI contraint de revoir sa copie
Face à la polémique, OpenAI a rapidement réagi en annonçant travailler sur une modification de la voix de « Sky ». Dans un article de blog, l’entreprise assure que celle-ci a été développée en se basant sur différentes actrices, et non spécifiquement sur Scarlett Johansson. Mais devant l’ampleur de la controverse, elle envisage maintenant de suspendre provisoirement l’assistant vocal le temps de clarifier la situation.
Nous pensons que les voix des IA ne devraient pas volontairement imiter celle de célébrités. La voix de Sky n’est aucunement une imitation de celle de Scarlett Johansson.
– OpenAI
Les dangers des deepfakes pointés du doigt
Au-delà du cas particulier de Scarlett Johansson, cette polémique met en lumière les enjeux cruciaux soulevés par le développement des technologies d’intelligence artificielle comme les deepfakes ou les voix synthétiques. Des outils qui permettent de créer des contenus audio et vidéo hyperréalistes imitant des personnes réelles, avec tous les risques de tromperie et d’atteinte à la vie privée que cela implique.
Au moment où nous trouvons aux prises avec des “deepfakes” et où nous luttons pour la protection de notre travail et de notre identité, je pense que ces questions méritent une clarté absolue.
– Scarlett Johansson
L’actrice en appelle ainsi à davantage de transparence de la part des acteurs de l’IA comme OpenAI, et plaide pour l’adoption d’un cadre légal protégeant mieux les droits des individus face à ces technologies. Un combat partagé par de nombreuses personnalités inquiètes de voir leur image ou leur voix utilisées à leur insu.
OpenAI fragilisé par les controverses
Pour OpenAI, cette énième polémique tombe au plus mal. Quelques jours plus tôt, l’entreprise annonçait la dissolution de son équipe d’éthique dédiée à l’étude des risques liés à l’IA. Une décision surprenante alors que les interrogations n’ont jamais été aussi vives sur les dérives potentielles de ces technologies.
Avec le départ fracassant de deux pontes de l’entreprise, dont le cofondateur Ilya Sutskever, c’est tout le modèle d’OpenAI qui semble remis en question. La priorité devra-t-elle être donnée au développement à tout va des capacités de l’IA, quitte à sacrifier les garde-fous éthiques ? Ou l’inverse ? L’avenir nous le dira, mais une chose est sûre : le chemin vers une IA éthique et responsable est encore long et semé d’embûches.