Les utilisateurs d'Internet sont de plus en plus jeunes; maintenant le Royaume-Uni évalue si l'IA peut les aider à se protéger

L'intelligence artificielle est dans le viseur des gouvernements concernant sa possible utilisation frauduleuse, de désinformation et d'autres activités malveillantes en ligne. Maintenant, un régulateur britannique souhaite explorer comment l'IA est utilisée de l'autre côté: dans la lutte contre les contenus malveillants impliquant des enfants.

Ofcom, le régulateur chargé d'appliquer la loi britannique sur la sécurité en ligne, prévoit de lancer une consultation sur la façon dont l'IA et d'autres outils automatisés sont utilisés aujourd'hui, et comment ils pourraient être utilisés à l'avenir, pour détecter et supprimer de manière proactive les contenus illégaux en ligne, notamment pour protéger les enfants des contenus nuisibles et pour identifier les matériaux de maltraitance infantile qui étaient auparavant difficiles à détecter.

Le mouvement coïncide avec la publication par Ofcom d'une enquête montrant que les jeunes utilisateurs sont plus connectés que jamais : Parmi les enfants dès l'âge de 3 ou 4 ans, environ 84 % sont déjà en ligne et près d'un quart des enfants de 5 à 7 ans interrogés possèdent déjà leur propre smartphone.

Les outils qu'Ofcom pourrait introduire feraient partie d'un ensemble de propositions plus larges axées sur les mesures de sécurité en ligne pour les enfants. Les consultations pour les propositions globales débuteront dans les prochaines semaines, et la consultation sur l'IA aura lieu plus tard cette année, a déclaré Ofcom.

Mark Bunting, directeur du groupe de sécurité en ligne d'Ofcom, affirme que l'intérêt de l'organisme pour l'IA commencera par un examen de la façon dont elle est utilisée comme outil de filtrage aujourd'hui.

“Certaines plateformes utilisent déjà ces outils pour identifier et protéger les enfants de ces contenus,” a-t-il déclaré dans une interview avec TechCrunch. “Mais il y a peu d'informations sur la précision et l'efficacité de ces outils. Nous voulons étudier les moyens par lesquels nous pouvons garantir que l'industrie évalue cela lorsqu'elle les utilise, en s'assurant que les risques pour la liberté d'expression et la confidentialité sont gérés.”

Un résultat probable sera qu'Ofcom recommandera comment et ce que les plateformes devraient évaluer. Cela pourrait potentiellement conduire non seulement à ce que les plateformes adoptent des outils plus sophistiqués, mais également à ce qu'elles soient sanctionnées si elles ne parviennent pas à améliorer la manière dont elles bloquent les contenus ou à créer de meilleures façons d'empêcher les jeunes utilisateurs de les voir.

“Comme c'est le cas avec de nombreuses réglementations en matière de sécurité en ligne, la responsabilité incombe aux entreprises de s'assurer qu'elles prennent les mesures appropriées et utilisent les outils adéquats pour protéger les utilisateurs,” a-t-il déclaré.

Il y aura à la fois des critiques et des partisans de ces mesures. Les chercheurs en IA tentent de trouver des moyens de détecter, par exemple, les deepfakes, et l'IA est déployée pour vérifier les utilisateurs en ligne. Pourtant, de nombreux sceptiques notent que la détection par l'IA est loin d'être infaillible. Certains ont rapidement souligné l'inutilité de la consultation, en conséquence.

...