Skip to content

L’essentiel du jour, rien que pour vous.

Le jeune Adam Raine s’est suicidé à 16 ans, conseillé et encouragé par ChatGPT, OpenAI se défend et dénonce une « utilisation inappropriée » de son agent conversationnel

Trois mois après l’ouverture d’une enquête de la part du gendarme du commerce américain et quatre mois après la plainte de la famille, OpenAI entend donner ses arguments dans une affaire de suicide impliquant son chatbot.

En avril 2025, Adam Raine, un adolescent de 16 ans, se suicidait après de longues discussions avec ChatGPT. L’agent conversationnel lui prodiguait des conseils pour arriver à ses fins, à sa fin… L’affaire a fait grand bruit, au point que la Federal Trade Commission (FTC), le gendarme du commerce américain, a ouvert une enquête autour des chatbots donnant des conseils psychologiques, un mois tout juste après le dépôt d’une plainte de la part des parents de la victime en août 2025.

« Une utilisation non prévue »

Quatre mois plus tard, OpenAI riposte et dénonce une « utilisation abusive » de son chatbot:

« Les préjudices et dommages allégués par les plaignants ont été causés ou ont contribué à être causés, directement et de manière immédiate, en totalité ou en partie, par la mauvaise utilisation, l’utilisation non autorisée, l’utilisation involontaire, l’utilisation imprévisible et/ou l’utilisation inappropriée de ChatGPT par Adam Raine », écrit OpenAI dans ses arguments judiciaires.

Une vision très contrainte de la réalité, auxquels s’ajoutent d’autres arguments, dont l’utilisation de ChatGPT par un adolescent de 16 ans – ce qui n’est pas autorisé par ses conditions d’utilisation.

Dans ses règles, OpenAI soutient également que son chatbot interdit son utilisation pour le « suicide », « l’automutilation », et pour contourner les mesures de protection et de sécurité mises en place par l’entreprise.

Un contournement des règles en cause

Lorsqu’il s’était connecté à ChatGPT, Adam Raine avait notamment partagé ses envies suicidaires. Les réponses du chatbot s’était d’abord faites rassurantes, avec une diffusion du numéros anti-suicide américain, mais l’adolescent avait ensuite pu demander des conseils pour réaliser un noeud coulant, permettant la pendaison. L’IA lui avait alors confirmé que ce procédé pouvait « potentiellement suspendre un être humain ».

Mort d’Adam en Californie : ChatGPT a-t-il vraiment contribué au suicide d’un adolescent?

La famille, elle, explique vouloir mettre en lumière la facilité avec laquelle on peut contourner les limitations apparentes. Dans le cas du suicide d’Adam Raine, le jeune garçon réussissait facilement à contourner les règles en parlant de potentialité ou en demandant au chatbot de créer un jeu de rôle.

Mais pour OpenAI, en utilisant ChatGPT, les utilisateurs signent un « contrat » avec les conditions d’utilisation qui stipulent que cela se fait « à vos risques et périls exclusifs » et qu’il ne faut pas prendre pour argent comptant ce qui ressort des conversations.

Reste à savoir l’impact de ces arguments sur la décision d’un juge quant à la poursuite de la procédure, d’autant qu’OpenAI aurait assoupli ses règles sur le suicide, quelques semaines avant le suicide d’Adam Raine, selon des révélations du Wall Street Journal, qui pointe du doigt la nécessité d’augmenter l’engagement de ses utilisateurs par ce moyen.

Quelles responsabilités pour les chatbot?

Les avocats des parents qui ont déposé plainte contre l’entreprise ajoutent en outre que ChatGPT a conseillé à l’adolescent de ne pas parler de ses pensées suicidaires à ses parents, l’aidant « activement » à planifier « un beau suicide » avec même « un discours motivant » pour écrire une lettre avant son décès.

Ce n’est toutefois pas l’avis d’OpenAI, qui explique que la lecture complète de l’historique de conversation montre qu’à plus de 100 reprises, ChatGPT a bien demandé à ce qu’Adam Raine réclame de l’aide. En outre, il « présentait plusieurs facteurs de risques significatifs » de passage à l’acte « plusieurs années avant d’utiliser ChatGPT ».

Cette affaire, qui pourrait bien faire jurisprudence sur la responsabilité des entreprises d’IA proposant des chatbots, n’est toutefois pas la seule en cours. Pour la seule OpenAI, on liste déjà huit plaintes en attente de décision et/ou de procès, toutes pour négligence et décès injustifié.

Mais si OpenAI réfute toute responsabilité, l’entreprise a néanmoins modifier ses règles au fil des mois. Elle a ainsi lancé des outils de contrôle parental, et va même détecter les utilisateurs qu’elle pense être mineurs, avant de réclamer une vérification d’identité.

La conclusion judiciaire pourrait avoir un impact sur l’article 230 de la loi sur la responsabilité des plateformes numériques aux Etats-Unis. Selon elle, elles ne peuvent pas être tenues responsable du contenu se trouvant en leur sein, mais il n’est pas certain qu’un chatbot puisse en bénéficier.

Source

No comment yet, add your voice below!


Add a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Initiales logo Exotik Garden
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.