En bref : pourquoi cela intéresse le lecteur
OpenAI déploie un système qui prédit l'âge de l'utilisateur sur la base du temps d'activité, de la durée d'existence du compte, de la dynamique d'utilisation et de l'âge déclaré. En cas de doute, la plateforme exigera une confirmation via un selfie par l'intermédiaire du service Persona. Parallèlement, une option « adult mode » est en préparation pour restreindre l'accès des mineurs aux contenus NSFW. Cela aura des répercussions sur la sécurité des enfants, la confidentialité des données et l'accès au contenu — des enjeux déjà à l'ordre du jour des régulateurs de l'UE.
Comment ça marche
Selon la description d'OpenAI, le système ne repose pas uniquement sur l'âge renseigné par l'utilisateur. L'algorithme analyse des signaux comportementaux — quand et à quelle fréquence la personne se connecte, comment l'intensité d'utilisation évolue dans le temps et s'il y a des changements brusques dans les habitudes. Si le modèle juge l'âge douteux, l'utilisateur recevra une demande de vérification via Persona (service de vérification d'identité utilisant la technologie des selfies).
« Le système de vérification de l'âge doit empêcher l'accès des mineurs aux contenus NSFW. »
— Engadget, compte rendu de l'annonce d'OpenAI
Conséquences potentielles
Pour les utilisateurs ukrainiens, cela signifie plusieurs conséquences pratiques. D'abord, les parents peuvent bénéficier d'une barrière de protection supplémentaire pour leurs enfants, mais le risque d'erreurs augmentera — par exemple lorsque le système demandera à un utilisateur adulte de se soumettre à une vérification. Ensuite, l'application soulève de nouvelles questions concernant la protection des données personnelles : les selfies sont transmis à un tiers (Persona), il est donc important de comprendre comment et où ces données sont stockées et sous la compétence de quel régulateur relèvent ces processus (particulièrement dans le contexte de l'UE).
Troisièmement, pour les entreprises et les plateformes éducatives, c'est un élément supplémentaire de conformité : les organisations doivent revoir leurs politiques d'accès au contenu et l'intégration des outils de vérification. Et enfin — c'est une partie d'une tendance plus large : les grandes plateformes d'IA devront équilibrer ouverture des services et exigences de sécurité/réglementation.
Contexte et perspectives
OpenAI prévoit d'introduire la prédiction de l'âge dans les pays de l'UE dans les prochaines semaines — c'est un signal que la régulation de l'IA passe à la phase de mise en œuvre pratique. Pour l'Ukraine, deux axes de réaction sont importants : d'une part, les institutions publiques et éducatives doivent évaluer les risques pour les mineurs ; d'autre part, les entreprises et les développeurs doivent se préparer aux changements en matière d'identification des utilisateurs et de politiques de confidentialité.
Les actualités parallèles — le concurrent de Google Translate par OpenAI et le forfait ChatGPT Go lancé en Ukraine — indiquent que la plateforme renforce sa position et introduit simultanément des outils de contrôle d'accès. Au final, la question ne porte pas seulement sur la technologie : qui et selon quels critères détermine l'âge d'un utilisateur, comment ses données sont protégées et la vérification ne deviendra‑t‑elle pas un obstacle à l'accès légitime à l'information ?
Désormais, la balle est dans le camp des régulateurs et des plateformes : les déclarations sur la sécurité doivent se traduire par des règles claires assorties de garanties en matière de vie privée. La capacité de ce mécanisme à concilier la protection des enfants et le droit des adultes à la vie privée sera la question clé des prochains mois.