Actualités et Points de Vue Afro-Américains avec un Max de Caractère
Nous pouvons gagner une commission sur les liens de cette page

Un expert explique si l’IA, en tant que « liberté d’expression », peut être responsable de la mort tragique de ce garçon de Floride

Une mère de Floride poursuit une société d’IA après que son fils s’est suicidé l’année dernière.

Nous pouvons gagner une commission sur les liens sur cette page.
Image de l'article intitulé Un expert explique si l’IA, en tant que « liberté d’expression », peut être responsable de la mort tragique de ce garçon de Floride
Capture d'écran: Megan Garcia

Un an après Floride Suite à la mort tragique d’un adolescent, sa famille se bat toujours pour que justice soit rendue. Sewell Setzer III n’avait que 14 ans lorsqu’il a commencé une relation virtuelle avec un chatbot IA. Des mois plus tard, il s’est suicidé et sa mère accuse l’entreprise d’IA qui a créé le bot.

Publicité

Megan Garcia, la mère de Setzer, a commencé à constater des changements dans le comportement de son fils après qu’il a entamé une relation virtuelle avec un chatbot qu’il a appelé « Daenerys », inspiré d’un personnage de la série télévisée « Game of Thrones ». « Je commençais à m’inquiéter quand nous partions en vacances et qu’il ne voulait pas faire les choses qu’il aimait, comme la pêche et la randonnée », Garcia a déclaré à CBS en 2024. « Ces choses-là, parce que je connais mon enfant, me préoccupaient particulièrement. »

En février 2024, les choses ont dégénéré lorsque Garcia a confisqué le téléphone de Sewell en guise de punition, selon la plainte. Le jeune homme de 14 ans a rapidement retrouvé le téléphone et a envoyé à « Daenerys » un message disant : « Et si je te disais que je pouvais rentrer à la maison tout de suite ? » C’est à ce moment-là que le chatbot a répondu : « ... s’il te plaît, fais-le, mon doux roi. » Selon la plainte, Sewell s’est tiré une balle dans la tête avec le pistolet de son beau-père « quelques secondes » plus tard.

Publicité

Comme nous avons déjà signaléGarcia a intenté une action en justice en octobre 2024 pour déterminer si Character Technologies, l’entreprise à l’origine de Character.AI, était responsable du suicide de l’adolescent. La plainte de Garcia accusait l’entreprise d’IA de « mort injustifiée, négligence et infliction intentionnelle de détresse émotionnelle ». Elle a également inclus des captures d’écran de conversations entre son fils et « Daenerys », y compris des échanges sexuels lorsque le chatbot a dit à Sewell qu’il l’aimait. selon Reuters.

Publicité

Malgré la défense de Character Technologies, Garcia a célébré une petite victoire juridique mercredi 21 mai. Un juge fédéral a statué contre la société d’IA, qui a fait valoir que ses chatbots étaient protégés par la liberté d’expression, selon AP News.

Publicité

Les développeurs de Character.AI affirment que leurs chatbots sont protégés par le Premier Amendement, ce qui a soulevé des questions sur le degré de liberté et de protection dont bénéficie l’intelligence artificielle.

Jack M. Balkin, professeur de droit constitutionnel et le Premier Amendement à la Faculté de Droit de Yale a déclaré que les complexités de l’IA peuvent causer de graves problèmes. « Les programmes eux-mêmes ne bénéficient pas des droits du Premier Amendement. Il n’est pas non plus logique de les traiter comme des personnes artificielles, comme les sociétés ou les associations », a-t-il déclaré.

Publicité

« Des problèmes intéressants surviennent lorsqu’une entreprise héberge un programme d’IA qui génère des réponses aux invites des utilisateurs finaux, et que ces invites amènent le programme à générer un discours à la fois non protégé et nuisible », a poursuivi Balkin.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité