L’utilisation malveillante de l’intelligence artificielle générative en période électorale fait craindre une nouvelle ère de désinformation de masse. Le dernier exemple en date : une vidéo truquée de Kamala Harris relayée par Elon Musk lui-même, visionnée des millions de fois.
Les deepfakes électoraux se multiplient
Depuis quelques années, les deepfakes, ces hypertrucages vidéo ou audio générés par IA, gagnent en réalisme. Leur utilisation en contexte électoral explose, avec pour but de tromper les électeurs et d’influencer les scrutins.
Le cas de la fausse vidéo de Kamala Harris, candidate démocrate potentielle à la présidentielle américaine, est emblématique. Créée par un Youtubeur via l’IA, elle la montre tenant des propos moqueurs et dégradants envers Joe Biden.
Cette création parodique a été reprise sans précaution par Elon Musk, fervent soutien de Donald Trump, et massivement vue sur X (ex-Twitter). Un partage irresponsable par une personnalité influente, brouillant dangereusement les frontières entre réel et virtuel.
D’autres exemples inquiétants
- Un faux appel robotisé imitant la voix de Joe Biden a cherché à décourager le vote dans le New Hampshire
- De fausses interviews générées par IA de Marine Le Pen et Marion Maréchal ont créé la confusion en France
- De nombreux deepfakes pornographiques de personnalités politiques, souvent féminines, visent à les décrédibiliser
Les réseaux sociaux, caisse de résonance
Malgré des politiques prohibant en théorie les médias synthétiques trompeurs, les grandes plateformes peinent à modérer efficacement les deepfakes viraux. La vélocité et l’ampleur de leur diffusion dépassent les capacités de détection.
Ces réseaux sont devenus le terrain de jeu favori des manipulateurs et propagandistes adeptes de l’IA, déplore un expert en désinformation digitale.
Un cadre législatif en retard
Si un tiers des États américains ont légiféré sur l’usage de l’IA en campagne électorale, aucune loi fédérale n’existe. En Europe et en France, le sujet n’est pas davantage régulé. Résultat : les auteurs de deepfakes malveillants agissent en toute impunité.
Jordan Bardella, président du RN, a bien appelé à une “utilisation responsable” de l’IA générative durant les élections. Mais au-delà des déclarations d’intention, les actes tardent à suivre, laissant le champ libre aux manipulations.
Vers une crise de confiance démocratique ?
Il est urgent pour les démocraties de se doter d’un arsenal anti-deepfakes, estiment les experts. Sans quoi le risque est grand de sombrer dans une ère de défiance généralisée, où la parole publique aura perdu toute crédibilité.
La tâche est immense : responsabiliser les plateformes, tracer les contenus synthétiques, sanctionner les abus, éduquer les citoyens… Tout en préservant la liberté d’expression. Un défi à la hauteur des dangers que l’IA fait peser sur la transparence du débat démocratique.