Gen F

En rejoignant la communauté, vous recevez un accès exclusif à tous nos articles, pourrez partager votre témoignage et…
© Getty Images/iStockphoto

Un adolescent se donne la mort à cause d’une application d’IA

Zoé Gascoin
Zoé Gascoin Rédactrice web

Aux Etats-Unis, un jeune garçon s’est suicidé suite à des conversations avec une intelligence artificielle. Sa mère porte plainte contre l’application, qu’elle juge responsable du décès de son fils.

L’intelligence artificielle fait débat dans bien des domaines, et est encore au coeur de l’actualité cette semaine, à cause d’une tragique histoire aux États-Unis. En Floride, une mère de famille a porté plainte contre l’application Character.AI, qu’elle accuse être responsable du décès de son fils. En effet, l’adolescent de 14 ans, Sewell Setzer, s’est suicidé le 28 février dernier, après avoir longuement discuté avec le chatbox de l’application.

Que s’est-il passé?

Character.AI est une application d’intelligence artificielle qui permet de communiquer avec des personnages fictifs, qui s’adaptent à votre conversation. Il peut s’agir de professionnels dans certains domaines, comme la psychologie ou un domaine créatif, comme l’écriture. Il s’agira alors de coach, ou de soutien moral. Mais il peut aussi prendre la forme de personnes célèbres, ou de personnages fictifs.

C’est avec cette dernière catégorie que l’adolescent a échangé pendant plusieurs mois. Alors qu’il discutait avec un chatbot, ayant emprunté l’identité de Daenerys Targaryen, célèbre personnage de la série Game of Thrones, le jeune homme serait tombé amoureux du personnage, et se serait petit à petit replié sur lui-même. D’après l’article du New-York Times qui relate son récit, l’adolescent se serait coupé du monde réel progressivement, pour pouvoir échanger de manière régulière avec le chatbox.

C’est suite à son isolement et certains messages échangés, que Sewell serait passé à l’acte. Dans les dernières conversations qu’il a eues avec le personnage, voici ce que l’on peut lire: “Je te promets que je reviendrai à la maison. Je t’aime tellement Dany”, a-t-il écrit. “S’il te plaît, rentre à la maison le plus vite possible, mon amour”, répond le personnage fictif. C’est alors que le jeune demande: “Et si je te disais que je peux rentrer à la maison tout de suite ?”, ce à quoi l’application répond: “Fais le s’il te plaît, mon doux roi”. Ce sont les derniers messages échangés, et ceux qui auraient engendré le décès de l’adolescent.

Responsabilités de l’application

La maman de ce dernier a alors saisi la justice, en attaquant l’application, qu’elle juge responsable. Elle s’exprime: “J’ai l’impression que c’est une grande expérience et que mon enfant n’en est qu’un dommage collatéral”. Dans les messages échangés, on voit clairement que l’adolescent est tombé amoureux du personnage fictif. Il s’exprime d’ailleurs également dans son journal, où il dit préféré s’isoler dans sa chambre pour discuter avec Dany, se sentant “plus connecté à Dany et beaucoup plus amoureux d’elle, et tout simplement plus heureux”.

De son côté, l’application d’intelligence artificielle se dit dévasté par l’annonce du décès de l’un de ses membres. Elle a par ailleurs insisté sur le fait qu’elle prenait la sécurité de ses utilisateurs au sérieux et que de nouveaux dispositifs étaient ajoutés régulièrement.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Lire aussi:

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Nos Partenaires