Comment mieux maîtriser l’activité de ses enfants sur ChatGPT ? C’est pour apporter certaines réponses à cette question qu’OpenAI a lancé, lundi 29 septembre, un contrôle parental pour son assistant conversationnel.
Lire aussi | Article réservé à nos abonnés ChatGPT annonce un contrôle parental après un suicide d’adolescent
La mesure avait été officiellement annoncée le 2 septembre, en réponse au dépôt d’une plainte par des parents accusant le service d’intelligence artificielle (IA) d’avoir accompagné leur adolescent, Adam Raine, pendant des mois dans sa démarche de suicide.
Concrètement, ce contrôle parental sera mis en place en liant le compte de l’enfant à celui de ses parents. Il activera des « protections de contenus renforcées », promet OpenAI : les filtres automatiques mis en place par l’entreprise seront alors censés supprimer les réponses « graphiques » montrant des éléments jugés choquants ou violents, ainsi que les « challenges viraux » (souvent des jeux dangereux comme le jeu du foulard), les « jeux de rôle sexuels, romantiques ou violents » et les « idéaux de beauté extrêmes », encourageant par exemple les troubles alimentaires.
Table des matières
Désactiver la génération d’images ou le mode vocal
Les parents pourront définir des plages horaires pendant lesquelles l’utilisation de ChatGPT sera impossible, par exemple la nuit. Il sera également possible de désactiver la génération d’images ou le mode vocal, qui permet de dialoguer avec l’assistant à l’oral.
Lire aussi | Article réservé à nos abonnés « On se confie encore plus à ChatGPT que sur les réseaux sociaux » : quand l’usage intime des assistants d’IA pose des problèmes éthiques
Les tuteurs pourront de plus « désactiver la mémoire » de ChatGPT, ce qui permettra de supprimer l’historique des réponses faites à l’adolescent. Cette mesure a probablement été inspirée par l’affaire Adam Raine, dont les conversations très intimes et personnelles avec l’assistant conversationnel autour du suicide avaient duré des mois.
Egalement en réponse à la plainte des parents de l’adolescent qui s’est suicidé, OpenAI annonce des « notifications » « permettant d’alerter les parents en cas de problème sérieux » – comme des propos récurrents sur le suicide.
Lire aussi | Article réservé à nos abonnés Un chatbot déguisé en doudou : « Après avoir colonisé le monde des adultes, l’IA pénètre celui des enfants »
Ces dispositions soulèvent toutefois certaines questions, notamment sur la confidentialité des conversations des ados avec l’assistant conversationnel, qui pourront susciter des alertes envoyées directement aux parents. « La confidentialité reste une priorité : seules les informations nécessaires seront partagées afin d’aider les parents à s’assurer de la sécurité de leur enfant », assure OpenAI.
Il vous reste 43.07% de cet article à lire. La suite est réservée aux abonnés.
No comment yet, add your voice below!