Le chatbot est-il en partie responsable ?
Aux USA, plusieurs familles portent plainte car elles attribuent un rôle aux chatbots de Character.AI dans le suicide de leurs enfants. La société de développement Character Technologies répond désormais aux allégations.
Le développeur américain Character Technologies annonce des changements majeurs pour mieux protéger les jeunes lorsqu’ils interagissent avec leurs chatbots IA de Character.AI. À l’avenir, les utilisateurs de moins de 18 ans ne pourront plus avoir de conversations illimitées avec des personnages créés par l’intelligence artificielle, a indiqué la société.
Le nouveau règlement devrait donc entrer en vigueur le 25 novembre. D’ici là, la durée de ces conversations par chat sera initialement limitée à deux heures par jour. Outre d’autres mesures, une nouvelle vérification de l’âge sera également introduite. Les adolescents devraient toujours pouvoir utiliser l’outil, mais non plus pour des conversations de chat ouvertes, mais plutôt pour créer des vidéos ou des flux.
Poursuites pour suicide
L’année dernière, une mère de famille de l’État américain de Floride a poursuivi l’entreprise en justice parce qu’elle lui imputait le suicide de son fils de 14 ans, ont rapporté les médias américains. L’adolescent aurait déjà utilisé intensivement l’un des chatbots de l’entreprise.
- Si vous présentez un risque de suicide : appelez le 112
- Téléphone d’information gratuit sur la dépression dans toute l’Allemagne : 0800 33 44 5 33
- Conseil téléphonique (0800/111-0-111 ou 0800/111-0-222, appel gratuit)
- Hotline pour enfants et jeunes (Tél. : 0800/111-0-333 ou 116-111)
- Aide allemande contre la dépression (services de crise et cliniques régionales, conseils pour les personnes touchées et leurs proches)
- Ligue allemande contre la dépression
En septembre, les familles de trois autres mineurs ont porté plainte contre Character Technologies dans les États du Colorado et de New York. Ils accusent également la société Character.AI d’avoir joué un rôle dans le suicide ou la tentative de suicide de leurs enfants.
Pour justifier ces nouvelles mesures, Character Technologies explique maintenant qu’elle réagit à l’évolution de la situation dans la manière dont les jeunes gèrent l’IA. Récemment, des rapports et des demandes de renseignements ont été publiés par les autorités de régulation sur le contenu que les adolescents pourraient rencontrer lors de conversations avec l’IA et sur la manière dont les formats de chat ouverts les affectent généralement – même si les filtres fonctionnent correctement.
Débat sur l’influence de l’IA
Le rôle de l’IA dans la santé mentale et la sécurité des jeunes fait de plus en plus l’objet de débats controversés aux États-Unis. Fin août, les parents d’un adolescent américain qui s’est suicidé en avril ont intenté une action en justice contre la société de développement ChatGPT OpenAI. Après que le procès ait été connu, OpenAI a annoncé des mesures améliorées de prévention du suicide.
Dans le même temps, l’entreprise a admis que les précautions précédentes, qui renvoyaient notamment les utilisateurs à une ligne d’assistance téléphonique, pouvaient échouer lors de conversations plus longues avec ChatGPT. Il est alors possible que le logiciel fournisse des réponses indésirables.