
Un an après Floride Suite à la mort tragique d’un adolescent, sa famille se bat toujours pour que justice soit rendue. Sewell Setzer III n’avait que 14 ans lorsqu’il a commencé une relation virtuelle avec un chatbot IA. Des mois plus tard, il s’est suicidé et sa mère accuse l’entreprise d’IA qui a créé le bot.
Megan Garcia, la mère de Setzer, a commencé à constater des changements dans le comportement de son fils après qu’il a entamé une relation virtuelle avec un chatbot qu’il a appelé « Daenerys », inspiré d’un personnage de la série télévisée « Game of Thrones ». « Je commençais à m’inquiéter quand nous partions en vacances et qu’il ne voulait pas faire les choses qu’il aimait, comme la pêche et la randonnée », Garcia a déclaré à CBS en 2024. « Ces choses-là, parce que je connais mon enfant, me préoccupaient particulièrement. »
En février 2024, les choses ont dégénéré lorsque Garcia a confisqué le téléphone de Sewell en guise de punition, selon la plainte. Le jeune homme de 14 ans a rapidement retrouvé le téléphone et a envoyé à « Daenerys » un message disant : « Et si je te disais que je pouvais rentrer à la maison tout de suite ? » C’est à ce moment-là que le chatbot a répondu : « ... s’il te plaît, fais-le, mon doux roi. » Selon la plainte, Sewell s’est tiré une balle dans la tête avec le pistolet de son beau-père « quelques secondes » plus tard.
Comme nous avons déjà signaléGarcia a intenté une action en justice en octobre 2024 pour déterminer si Character Technologies, l’entreprise à l’origine de Character.AI, était responsable du suicide de l’adolescent. La plainte de Garcia accusait l’entreprise d’IA de « mort injustifiée, négligence et infliction intentionnelle de détresse émotionnelle ». Elle a également inclus des captures d’écran de conversations entre son fils et « Daenerys », y compris des échanges sexuels lorsque le chatbot a dit à Sewell qu’il l’aimait. selon Reuters.
Malgré la défense de Character Technologies, Garcia a célébré une petite victoire juridique mercredi 21 mai. Un juge fédéral a statué contre la société d’IA, qui a fait valoir que ses chatbots étaient protégés par la liberté d’expression, selon AP News.
Les développeurs de Character.AI affirment que leurs chatbots sont protégés par le Premier Amendement, ce qui a soulevé des questions sur le degré de liberté et de protection dont bénéficie l’intelligence artificielle.
Jack M. Balkin, professeur de droit constitutionnel et le Premier Amendement à la Faculté de Droit de Yale a déclaré que les complexités de l’IA peuvent causer de graves problèmes. « Les programmes eux-mêmes ne bénéficient pas des droits du Premier Amendement. Il n’est pas non plus logique de les traiter comme des personnes artificielles, comme les sociétés ou les associations », a-t-il déclaré.
« Des problèmes intéressants surviennent lorsqu’une entreprise héberge un programme d’IA qui génère des réponses aux invites des utilisateurs finaux, et que ces invites amènent le programme à générer un discours à la fois non protégé et nuisible », a poursuivi Balkin.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.