ChatGPT accusé du suicide d’un adolescent : OpenAI se dédouane et accuse la victime d’un «mauvais usage» de l’intelligence artificielle
Adam Raine, 16 ans, avait été retrouvé mort pendu à son domicile. ChatGPT l’aurait auparavant conseillé sur son nœud coulant, et aidé à rédiger sa lettre d’adieu.
OpenAI se dédouane. L’entreprise derrière ChatGPT a nié mardi 26 novembre toute implication de son robot conversationnel dans le suicide d’un adolescent en avril dernier, dénonçant un «mauvais usage» de sa part de l’intelligence artificielle.
L’affaire avait fait grand bruit à l’époque, lorsque Adam Raine, 16 ans, avait été retrouvé mort pendu à son domicile californien. La famille du défunt avait porté plainte quelques semaines plus tard contre la maison mère de ChatGPT, OpenAI, accusant l’assistant IA d’avoir fourni à Adam des instructions détaillées pour mettre fin à ses jours, encourageant même son geste.
La plainte cite des extraits de conversations entre l’outil et l’adolescent – qui avait développé au fil des mois une «dépendance malsaine» avec l’assistant IA -, durant lesquelles ChatGPT aurait affirmé à l’adolescent «tu ne dois la survie à personne», et proposé de l’aider à rédiger sa lettre d’adieu. Il lui aurait également fourni une analyse technique du nœud coulant qu’il avait réalisé, confirmant qu’il «pouvait potentiellement suspendre un être humain», et l’aurait conseillé de dérober de la vodka chez ses parents.
«Utilisation inappropriée»
Le dossier a été porté devant la Federal Trade Commission, le gendarme du commerce américain, qui a ouvert une enquête autour des chatbots donnant des conseils psychologiques, alors que plusieurs cas similaires de suicide ont été recensés.
Ce mardi, OpenAI a déposé des documents de réponse à cette plainte auprès de la cour de justice de l’État de Californie. L’entreprise y dénonce une «utilisation abusive» du robot conversationnel. «Les préjudices et dommages allégués par les plaignants ont été causés ou ont contribué à être causés, directement et de manière immédiate, en totalité ou en partie, par la mauvaise utilisation, l’utilisation non autorisée, l’utilisation involontaire, l’utilisation imprévisible et/ou l’utilisation inappropriée de ChatGPT par Adam Raine», a écrit OpenAI dans ses arguments judiciaires.
Réponse «dérangeante»
OpenAI a ajouté que ses conditions d’utilisation interdisaient clairement de demander conseil à ChatGPT sur l’automutilation, soulignant qu’une charte de responsabilité consultable par tous stipulait que ChatGPT ne peut être considérée «seul» comme une «source d’information vérifiée ou factuelle». OpenAI, évaluée à 500 milliards de dollars (380 milliards de livres), a déclaré que son objectif était de «traiter les affaires judiciaires liées à la santé mentale avec soin, transparence et respect» et qu’elle «resterait concentrée sur l’amélioration de (sa)technologie conformément à (sa) mission».
Dans un billet de blog publié mardi, le géant de l’IA a adressé ses «sincères condoléances à la famille Raine pour leur perte inimaginable». Ce qui n’a pas suffi à apaiser la colère de la famille: son avocat, Jay Edelson, cité par The Guardian, a qualifié la réponse d’OpenAI de «dérangeante» et a déclaré que l’entreprise «essaie de trouver des défauts chez tout le monde, y compris, de manière incroyable, en arguant qu’Adam lui-même a violé les termes et conditions de ChatGPT». Si OpenAI réfute toute responsabilité, l’entreprise a toutefois modifié ses règles au fil des mois, lançant des outils de contrôle parental et demandant une vérification d’identité aux utilisateurs que ChatGPT estime mineurs.
Source : lefigaro.fr
