Skip to content

L’essentiel du jour, rien que pour vous.

Intelligence artificielle : ChatGPT propose désormais un contrôle parental

Comment mieux maîtriser l’activité de ses enfants sur ChatGPT ? C’est pour apporter certaines réponses à cette question qu’OpenAI a lancé, lundi 29 septembre, un contrôle parental pour son assistant conversationnel.

Lire aussi | Article réservé à nos abonnés ChatGPT annonce un contrôle parental après un suicide d’adolescent

La mesure avait été officiellement annoncée le 2 septembre, en réponse au dépôt d’une plainte par des parents accusant le service d’intelligence artificielle (IA) d’avoir accompagné leur adolescent, Adam Raine, pendant des mois dans sa démarche de suicide.

Concrètement, ce contrôle parental sera mis en place en liant le compte de l’enfant à celui de ses parents. Il activera des « protections de contenus renforcées », promet OpenAI : les filtres automatiques mis en place par l’entreprise seront alors censés supprimer les réponses « graphiques » montrant des éléments jugés choquants ou violents, ainsi que les « challenges viraux » (souvent des jeux dangereux comme le jeu du foulard), les « jeux de rôle sexuels, romantiques ou violents » et les « idéaux de beauté extrêmes », encourageant par exemple les troubles alimentaires.

Désactiver la génération d’images ou le mode vocal

Les parents pourront définir des plages horaires pendant lesquelles l’utilisation de ChatGPT sera impossible, par exemple la nuit. Il sera également possible de désactiver la génération d’images ou le mode vocal, qui permet de dialoguer avec l’assistant à l’oral.

Lire aussi | Article réservé à nos abonnés « On se confie encore plus à ChatGPT que sur les réseaux sociaux » : quand l’usage intime des assistants d’IA pose des problèmes éthiques

Les tuteurs pourront de plus « désactiver la mémoire » de ChatGPT, ce qui permettra de supprimer l’historique des réponses faites à l’adolescent. Cette mesure a probablement été inspirée par l’affaire Adam Raine, dont les conversations très intimes et personnelles avec l’assistant conversationnel autour du suicide avaient duré des mois.

Egalement en réponse à la plainte des parents de l’adolescent qui s’est suicidé, OpenAI annonce des « notifications » « permettant d’alerter les parents en cas de problème sérieux » – comme des propos récurrents sur le suicide.

Lire aussi | Article réservé à nos abonnés Un chatbot déguisé en doudou : « Après avoir colonisé le monde des adultes, l’IA pénètre celui des enfants »

Ces dispositions soulèvent toutefois certaines questions, notamment sur la confidentialité des conversations des ados avec l’assistant conversationnel, qui pourront susciter des alertes envoyées directement aux parents. « La confidentialité reste une priorité : seules les informations nécessaires seront partagées afin d’aider les parents à s’assurer de la sécurité de leur enfant », assure OpenAI.

Il vous reste 43.07% de cet article à lire. La suite est réservée aux abonnés.

Source

No comment yet, add your voice below!


Add a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Initiales logo Exotik Garden
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.