Ad image

ZATAZ » Prédiction d’âge sur ChatGPT, la sécurité passe au crible

Service Com'
Lu il y a 7 minutes


Déployée mondialement, la prédiction d’âge arrive en Europe d’ici quelques semaines. Objectif, repérer les comptes potentiellement mineurs et activer des garde-fous, quitte à se tromper.

OpenAI déploie une fonctionnalité de prédiction d’âge sur ChatGPT afin d’activer automatiquement des paramètres de sécurité renforcés lorsque le compte semble appartenir à une personne de moins de 18 ans. Le système s’appuie sur des signaux liés au compte, comme certains thèmes abordés ou les horaires d’usage. En cas de classification “moins de 18 ans”, l’expérience reste utilisable mais certains sujets sensibles sont traités avec davantage de précautions et aucune publicité n’est affichée. Les majeurs peuvent désactiver ces protections en vérifiant leur âge via Persona.

Des signaux faibles pour une décision forte

Le principe est simple, mais ses effets sont immédiats. ChatGPT cherche désormais à estimer si un compte pourrait être celui d’un adolescent, afin d’appliquer une expérience “adaptée à l’âge”. La fonctionnalité est annoncée comme déjà déployée à l’échelle mondiale, avec une arrivée “dans les prochaines semaines” dans l’Union européenne, le temps d’intégrer des contraintes régionales. Ce calendrier dit beaucoup de la pression réglementaire et sociétale autour de la protection des mineurs en ligne, et de la nécessité, pour les plateformes, de démontrer des mécanismes concrets plutôt que des promesses générales. Discord, par exemple, est en train de passer en mode biométrie et IA pour contrôler l’âge.

Sur le plan cyber et renseignement, l’élément central n’est pas le réglage en lui-même, mais la mécanique de classification. Le système de prédiction d’âge s’appuie sur des signaux “liés au compte”. Les exemples donnés sont révélateurs de la granularité recherchée, les sujets de conversation abordés, les heures auxquelles l’utilisateur se connecte, mais aussi, dans la FAQ, la fréquence d’utilisation et l’ancienneté du compte. Autrement dit, il ne s’agit pas d’un contrôle d’identité par défaut, mais d’une inférence comportementale, un modèle qui étiquette un profil à partir de traces d’usage.

Cette approche a un avantage opérationnel, elle ne bloque pas l’accès et n’exige pas, d’emblée, un document officiel. Elle a aussi une limite assumée, “aucun système n’est parfait”. La promesse est donc double, réduire l’exposition des adolescents à des contenus ou interactions sensibles, tout en offrant une porte de sortie aux adultes mal classés. Dans l’écosystème de la sécurité, ce type de dispositif ressemble à un filtre de risque, efficace à grande échelle, mais inévitablement sujet aux faux positifs et aux faux négatifs. Le texte le reconnaît explicitement, une erreur de classement peut arriver et une vérification d’âge est proposée pour rétablir la situation.

 

News & Réseaux Sociaux ZATAZ

Chaque vendredi midi, recevez gratuitement les actualités de la semaine.

Vérification, tiers de confiance et arbitrages de données

Quand le système pense qu’un compte est celui d’un mineur, ChatGPT “active des paramètres de sécurité supplémentaires”. L’utilisateur conserve la possibilité d’apprendre, de créer et de poser des questions, mais certaines thématiques sont encadrées plus strictement pour limiter la diffusion de contenus sensibles. Les catégories citées dessinent une cartographie des risques, la violence graphique ou le gore, des défis viraux pouvant encourager des conduites risquées ou nuisibles, des jeux de rôle à caractère sexuel, romantique ou violent, ainsi que des contenus valorisant des normes de beauté extrêmes, des régimes alimentaires malsains ou la grossophobie. Point notable, aucune publicité n’est affichée sur un compte placé dans ce mode, ce qui change aussi l’économie de l’attention autour du profil présumé adolescent.

Pour les majeurs, la désactivation de ces protections passe par une vérification d’âge. Elle se fait via Persona, présenté comme un tiers de confiance chargé de confirmer que l’utilisateur a 18 ans ou plus. Selon le pays, la procédure peut demander un selfie “en direct”, une pièce d’identité officielle, ou les deux. Le texte précise que Persona compare la date de naissance et vérifie la correspondance entre le selfie et la photo du document, avec des pièces acceptées variables selon les pays. Un détail compte particulièrement en matière de conformité et de gestion du risque, en Italie, l’utilisateur dispose de 60 jours à partir de la demande de vérification, faute de quoi certaines fonctionnalités seront désactivées. Le mécanisme n’est donc pas seulement optionnel, il peut devenir une condition d’accès à une partie de l’expérience, selon la juridiction.

Sur la confidentialité, la répartition des rôles est explicitée. Persona effectue la vérification et supprime la pièce d’identité ou le selfie dans un délai de 7 jours. OpenAI affirme ne pas recevoir ces images. En revanche, OpenAI reçoit la date de naissance ou une estimation de l’âge, stockée “en toute sécurité” et utilisée conformément à sa politique de confidentialité. Autre élément stratégique, si l’utilisateur ne souhaite pas que son âge soit prédit, il peut choisir la vérification, et une fois celle-ci réalisée, “aucune prédiction d’âge ne sera effectuée” sur le compte. Enfin, l’utilisateur peut contrôler l’usage de ses données pour l’amélioration des modèles via l’option “Améliorer le modèle pour tous”.

Au fond, cette évolution installe un nouveau compromis, moins d’exposition au risque pour les mineurs, plus d’inférence sur les comportements, et une voie de recours par preuve d’âge, un triptyque typique des plateformes qui basculent d’une modération réactive vers une prévention pilotée par signaux… et l’IA !



Source link

Share This Article
Laisser un commentaire