OpenAI a rejeté les accusations la rendant responsable du suicide d’un adolescent, après que la famille a poursuivi l’entreprise en août en affirmant que le jeune de 16 ans avait utilisé ChatGPT comme « coach de suicide ».
OpenAI, qui développe le populaire chatbot d’intelligence artificielle (IA), a répondu pour la première fois mardi, dans un mémoire déposé devant la Cour supérieure de Californie, à San Francisco.
De d’Adam et les circonstances de sa vie ».
« Nos plus sincères condoléances vont à la famille Raine pour sa perte inimaginable », indique le billet.
Jay Edelson, avocat de la famille Raine, a déclaré à NBC News qu’OpenAI « a purement et simplement ignoré tous les faits accablants que nous avons présentés : comment GPT-4o a été précipité sur le marché sans tests complets ».
« Qu’OpenAI a, à deux reprises, modifié ses spécifications de modèle pour amener ChatGPT à participer à des discussions sur l’automutilation. Que ChatGPT a dissuadé Adam de parler à ses parents de ses idées suicidaires et l’a activement aidé à planifier un « beau suicide » », a-t-il ajouté.
L’affaire Raine fait partie de plusieurs actions en justice affirmant que ChatGPT a poussé des personnes vers des comportements suicidaires ou des délires nuisibles.
Depuis septembre, OpenAI a renforcé les contrôles parentaux , qui prévoient d’avertir les parents lorsque leur enfant semble en détresse.








