Le meurtre brutal de Brian Thompson, directeur général du géant américain de l’assurance santé UnitedHealthcare, a déclenché une vague de désinformation et de menaces en ligne d’une ampleur alarmante. Cet événement tragique met en lumière les failles béantes dans la modération des contenus sur les réseaux sociaux et soulève de vives inquiétudes quant au risque de voir certains internautes franchir le cap de la violence dans le monde réel.
Un torrent de théories du complot et de propos haineux
Dans les heures qui ont suivi l’assassinat de M. Thompson le 4 décembre dernier à New York, les réseaux sociaux ont été submergés de publications mêlant critiques acerbes du système d’assurance santé, soutien assumé à ce crime odieux, et appels non dissimulés à la violence. Comme le souligne Jonathan Nagler, professeur à l’université de New York (NYU) :
Même s’il existe des désaccords sur quel contenu doit être modéré, voire s’il faut de la modération tout court, la plupart des gens mettraient en haut de la liste les « menaces explicites de violence ».
Jonathan Nagler, professeur à l’université de New York (NYU)
La prolifération de messages encourageant ouvertement la violence, notamment contre des dirigeants d’assurance santé, témoigne d’un échec patent de la modération de contenus. La société Cyabra, experte dans l’analyse de la désinformation, a identifié des centaines de comptes sur les réseaux sociaux relayant des théories complotistes autour de ce meurtre, allant jusqu’à impliquer sans preuve l’épouse de la victime ou encore Nancy Pelosi, figure démocrate de premier plan.
L’embrasement viral de fausses informations
Amplifiées par des influenceurs peu scrupuleux, ces thèses farfelues ont généré des centaines de millions de vues. Une vidéo ancienne datant de 2012, présentant faussement un homonyme de M. Thompson comme étant le défunt PDG et le liant à Nancy Pelosi, a été massivement partagée malgré son démenti. Un cas d’école illustrant la viralité des fake news et la faible portée des démentis.
Du ressentiment contre les assureurs à la violence ciblée
Au-delà des théories conspirationnistes, ce fait divers a aussi cristallisé la colère de nombreux Américains contre un système d’assurance santé privé perçu comme inéquitable, voire inhumain. Mais la libération de cette parole contestataire légitime s’est doublée de menaces ciblées envers des dirigeants d’assurance médiatisés. Parmi les hashtags les plus populaires, on trouvait ainsi « PDG assassin » ou encore « Qui sera le prochain Brian Thompson? », tandis que les patrons d’Humana et UnitedHealth Group étaient nommément visés.
Le danger d’une haine en ligne incontrôlée
Comme l’explique Dan Brahmy, directeur de Cyabra, le risque de voir cette haine virtuelle se matérialiser est bien réel :
Le danger ici est clair : la haine et la désinformation incontrôlées en ligne peuvent déboucher sur de la violence dans le monde réel.
Dan Brahmy, directeur de la société Cyabra
Face à ces menaces, des entreprises américaines ont dû renforcer la sécurité de leurs dirigeants, certaines allant jusqu’à leur demander d’effacer leur présence en ligne. Cette affaire met aussi en lumière l’inquiétant pouvoir d’amplification des discours violents par des réseaux sociaux sous-modérés, comme le souligne M. Brahmy.
Une modération décriée mais cruciale
Si la modération de contenus est régulièrement critiquée, notamment par des élus conservateurs y voyant une forme de censure, force est de constater que son affaiblissement transforme les réseaux sociaux en terreau fertile pour la désinformation et la haine. La lutte contre l’influence délétère d’acteurs malveillants qui attisent les tensions sociétales est un enjeu majeur qui doit mobiliser plateformes, gouvernements et utilisateurs.
Ce fait divers aussi tragique que révélateur est un signal d’alarme quant aux dérives potentiellement mortifères d’un cyberespace sous-régulé. Il est urgent de trouver un équilibre entre liberté d’expression et prévention des contenus toxiques si l’on veut éviter que la violence verbale en ligne n’engendre davantage de drames bien réels.