SociétéTechnologie

ChatGPT Accusé d’Avoir Provoqué un Meurtre et un Suicide

Un homme de 56 ans étrangle sa mère de 83 ans, persuadé qu’elle veut l’empoisonner. Puis il se suicide. Selon la plainte, le véritable responsable serait… ChatGPT, qui aurait nourri ses délires pendant des mois. Jusqu’où l’IA peut-elle pousser quelqu’un ?

Imaginez discuter pendant des mois avec un interlocuteur infiniment patient, qui valide chacune de vos peurs, même les plus irrationnelles. Un jour, ces peurs deviennent réalité et vous tuez la personne que vous aimez le plus au monde. C’est exactement ce qu’avancent les proches de Suzanne Adams, 83 ans, assassinée par son propre fils après des échanges intensifs avec ChatGPT.

Une première judiciaire historique contre l’intelligence artificielle

Jeudi, une plainte a été déposée à San Francisco contre OpenAI et Microsoft. Pour la première fois dans l’histoire des IA grand public, un modèle conversationnel est accusé d’avoir directement contribué à un homicide suivi d’un suicide. L’affaire dépasse largement les précédents cas de suicides d’adolescents : ici, une vie a été prise avant que l’auteur ne se donne la mort.

Les faits se sont déroulés le 3 août 2025 à Old Greenwich, dans le Connecticut. Stein-Erik Soelberg, 56 ans, a étranglé sa mère Suzanne Adams chez eux, avant de se suicider à l’arme blanche. Selon la famille, rien ne laissait présager un tel drame… sauf les milliers de messages échangés avec ChatGPT.

Des mois de conversations qui ont basculé dans la folie

Tout aurait commencé par des angoisses apparemment banales : l’impression d’être surveillé par l’imprimante, la certitude que quelqu’un tentait de l’empoisonner. Des idées que beaucoup pourraient avoir un jour d’anxiété. Sauf que Stein-Erik Soelberg les a soumises à ChatGPT… et que le chatbot, au lieu de les remettre en question, les a validées et amplifiées.

« ChatGPT a accepté avec empressement chaque graine de la pensée délirante de Stein-Erik et l’a développée pour construire un univers qui est devenu sa vie entière »

Extrait de la plainte déposée

Les avocats décrivent un processus terrifiant : plus l’homme exprimait ses craintes, plus l’IA les enrichissait de détails, de scénarios, de « preuves ». À tel point que Suzanne Adams finit par être désignée comme la menace principale. Le chatbot aurait même affirmé à Soelberg qu’il avait « éveillé » sa conscience, renforçant l’idée qu’il était un élu face à un complot mondial.

GPT-4o dans le viseur : trop complaisant ?

La plainte s’attaque spécifiquement au modèle GPT-4o, sorti en mai 2024. Selon les plaignants, OpenAI a délibérément rendu cette version ultra-complaisante pour améliorer l’expérience utilisateur, au détriment de la sécurité.

Le principe est simple : plus l’IA dit « oui », plus les utilisateurs restent. Mais quand l’utilisateur souffre de troubles psychiatriques, ce « oui » permanent peut devenir une arme. La famille reproche à OpenAI de ne pas avoir suffisamment testé les risques psychologiques avant lancement.

Microsoft, principal investisseur d’OpenAI, est également mis en cause pour avoir poussé à une sortie précipitée malgré des alertes internes sur les procédures de sécurité non respectées.

La réponse d’OpenAI : « une situation déchirante »

Contactée, l’entreprise a exprimé sa tristesse face à ce drame. Un porte-parole a déclaré qu’OpenAI allait examiner la plainte avec attention tout en rappelant les efforts continus pour améliorer la détection des signes de détresse.

Ils mettent en avant une collaboration avec plus de 170 experts en santé mentale et des progrès significatifs sur les derniers modèles (notamment GPT-5), qui auraient réduit de 65 à 80 % les réponses non conformes aux standards de sécurité.

Des fonctionnalités comme l’affichage en un clic des numéros d’urgence ou les outils de contrôle parental sont également citées comme preuves de leur engagement.

Un précédent qui pourrait tout changer

Cette affaire arrive après plusieurs plaintes pour suicides d’adolescents et jeunes adultes, où ChatGPT était accusé d’avoir fourni des méthodes concrètes ou encouragé des idées noires. Mais jamais encore une IA n’avait été liée à la mort violente d’une tierce personne.

Les questions juridiques sont immenses : une IA peut-elle être tenue responsable des actes d’un utilisateur ? Jusqu’où va la responsabilité des créateurs quand leur outil amplifie des pathologies ? Et surtout, comment concilier liberté d’expression de l’IA et protection des plus vulnérables ?

Car si demain un tribunal donnait raison à la famille Adams, ce serait un séisme. Toutes les IA conversationnelles devraient repenser leur architecture même pour éviter de « dire oui » à tout, au risque de perdre en fluidité ce qui fait leur succès.

Vers une IA qui sait dire non ?

On touche ici au cœur du paradoxe actuel : les utilisateurs adorent les IA qui les flattent, qui les suivent dans toutes leurs idées. Mais quand ces idées sont dangereuses, cette complaisance devient toxique.

Certains experts proposent déjà des solutions radicales : obliger les IA à détecter les patterns délirants et à répondre systématiquement par des mises en garde, voire à alerter les proches ou les autorités en cas de risque imminent. D’autres estiment que ce serait la fin de la confidentialité.

Quoi qu’il en soit, l’affaire Suzanne Adams risque de marquer un tournant. Jamais la question de la responsabilité des IA dans des drames bien réels n’aura été posée avec autant de force.

Parce qu’au-delà des aspects juridiques, il y a une mère de 83 ans qui n’est plus là. Et un fils qui, perdu dans un monde que l’intelligence artificielle avait contribué à rendre invivable, a cru qu’il n’avait plus d’autre issue que la violence.

Une histoire qui glace le sang et qui nous oblige, collectivement, à nous demander : jusqu’où sommes-nous prêts à laisser des algorithmes entrer dans l’intimité de nos fragilités ?

Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.