Meta a annoncé des changements dans ses règles concernant le contenu généré par IA et les médias manipulés suite aux critiques de son Conseil de Surveillance. À partir du mois prochain, la société a déclaré qu'elle étiquetterait une gamme plus large de tels contenus, notamment en apposant un badge "Fabriqué avec IA" sur les deepfakes. Des informations contextuelles supplémentaires peuvent être affichées lorsque le contenu a été manipulé de manière à tromper le public sur une question importante.
Le mouvement pourrait conduire le géant des réseaux sociaux à étiqueter davantage de contenus ayant le potentiel d'être trompeurs — important dans une année où de nombreuses élections ont lieu à travers le monde. Cependant, pour les deepfakes, Meta n'apposera des étiquettes que là où le contenu en question présente des "indicateurs d'images IA standard de l'industrie", ou lorsque l'utilisateur a indiqué qu'il s'agit d'un contenu généré par IA.
Le contenu généré par IA qui ne rentre pas dans ces limites échappera vraisemblablement sans étiquette.
Le changement de politique devrait également entraîner plus de contenu généré par IA et de médias manipulés restant sur les plateformes de Meta, car l'entreprise privilégie une approche axée sur la "transparence et le contexte supplémentaire", considérée comme "la meilleure façon de traiter ce contenu" (plutôt que de supprimer les médias manipulés, étant donné les risques associés pour la liberté d'expression).
Donc, pour le contenu généré par IA ou autrement manipulé sur les plateformes de Meta comme Facebook et Instagram, le guide semble être : plus d'étiquettes, moins de suppressions.
Meta a déclaré qu'elle cesserait de supprimer du contenu uniquement sur la base de sa politique actuelle de vidéos manipulées en juillet, ajoutant dans un article de blog publié vendredi : "Ce délai donne aux gens le temps de comprendre le processus d'autodéclaration avant que nous arrêtions de supprimer le plus petit sous-ensemble des médias manipulés."
Le changement de stratégie pourrait être destiné à répondre aux demandes juridiques croissantes adressées à Meta concernant la modération de contenu et les risques systémiques, tels que le Digital Services Act de l'Union européenne. Depuis août dernier, la loi de l'UE impose un ensemble de règles à ses deux principaux réseaux sociaux qui obligent Meta à jongler entre la suppression de contenu illégal, l'atténuation des risques systémiques et la protection de la liberté d'expression. Le bloc met également une pression supplémentaire sur les plateformes à l'approche des élections au Parlement européen en juin, exigeant notamment des géants de la technologie de marquer les deepfakes lorsqu'ils le jugent techniquement faisable.
Les prochaines élections présidentielles aux États-Unis en novembre sont également susceptibles d'occuper l'esprit de Meta.
Critique du Conseil de Surveillance
Le conseil consultatif de Meta, que le géant de la technologie finance mais qu'il autorise à fonctionner de manière indépendante, examine un petit pourcentage de ses décisions de modération de contenu mais peut également formuler des recommandations politiques. Meta n'est pas tenu d'accepter les suggestions du conseil, mais en l'occurrence, il a accepté de modifier son approche.
Dans un article de blog publié vendredi, Monika Bickert, vice-présidente de la politique du contenu de Meta, a déclaré que l'entreprise modifiait ses politiques concernant le contenu généré par IA et les médias manipulés sur la base des retours du conseil. "Nous sommes d'accord avec l'argument du Conseil de Surveillance selon lequel notre approche actuelle est trop étroite, puisqu'elle ne couvre que les vidéos créées ou modifiées par IA pour faire dire à une personne quelque chose qu'elle n'a pas dit", a-t-elle écrit.
En février dernier, le Conseil de Surveillance a exhorté Meta à revoir son approche du contenu généré par IA après avoir pris en charge un cas d'une vidéo truquée du président Biden éditée pour impliquer un motif sexuel à un baiser platonique qu'il a donné à sa petite-fille.
Alors que le conseil était d'accord avec la décision de Meta de laisser le contenu spécifique en place, il a critiqué sa politique sur les médias manipulés comme étant "incohérente" — soulignant, par exemple, qu'elle ne s'applique qu'aux vidéos créées par IA, laissant d'autres contenus falsifiés (comme des vidéos ou des audios simplement truqués) échapper à toute sanction.
Meta semble avoir pris en compte les critiques du conseil.
"Au cours des quatre dernières années, et surtout au cours de la dernière année, les gens ont développé d'autres types de contenus générés par IA réalistes, tels que l'audio et les photos, et cette technologie évolue rapidement," a écrit Bickert. "Comme le Conseil l'a noté, il est tout aussi important de traiter la manipulation montrant une personne faisant quelque chose qu'elle n'a pas fait."
"Le Conseil a également soutenu que nous risquons inutilement de restreindre la liberté d'expression lorsque nous supprimons des médias manipulés qui ne violent pas par ailleurs nos Normes de la Communauté. Il a recommandé une approche "moins restrictive" des médias manipulés comme des étiquettes avec du contexte."
Plus tôt cette année, Meta a annoncé qu'elle travaillait avec d'autres acteurs de l'industrie sur le développement de normes techniques communes pour identifier le contenu IA, y compris vidéo et audio. Elle s'appuie sur cet effort pour étendre l'étiquetage des médias synthétiques maintenant.
"Nos labels 'Fabriqué avec IA' sur les vidéos, audios et images générés par IA seront basés sur notre détection de signaux partagés par l'industrie des images IA ou des personnes s'autorisant à télécharger du contenu généré par IA," a déclaré Bickert, notant que l'entreprise applique déjà des labels "Imaginé avec IA" aux images photoréalistes créées à l'aide de sa propre fonctionnalité Meta AI.
La politique élargie couvrira "une gamme plus large de contenus en plus du contenu manipulé recommandé par le Conseil de Surveillance", selon Bickert.
"Si nous déterminons que des images, vidéos ou audios créés ou modifiés numériquement présentent un risque particulièrement élevé de tromper le public sur une question importante, nous pouvons ajouter un label plus visible pour que les gens disposent de plus d'informations et de contexte," a-t-elle écrit. "Cette approche globale donne aux gens plus d'informations sur le contenu pour qu'ils puissent mieux l'évaluer et qu'ils aient du contexte s'ils voient le même contenu ailleurs."
Meta a déclaré qu'elle ne supprimera pas de contenu manipulé — qu'il soit basé sur l'IA ou autrement truqué — à moins qu'il ne viole d'autres politiques (telles que l'ingérence électorale, l'intimidation et le harcèlement, la violence et l'incitation, ou d'autres problèmes de Normes de la Communauté). Au lieu de cela, comme indiqué ci-dessus, elle peut ajouter des "étiquettes informatives et du contexte" dans certains scénarios d'un intérêt public élevé.
L'article de blog de Meta met en avant un réseau de près de 100 vérificateurs de faits indépendants, avec lesquels elle déclare collaborer pour aider à identifier les risques liés au contenu manipulé.
Ces entités externes continueront d'examiner les contenus faux et trompeurs générés par IA, selon Meta. Lorsqu'ils évaluent un contenu comme "Faux ou Modifié", Meta a déclaré qu'elle réagira en apportant des modifications algorithmiques réduisant la portée du contenu — ce qui signifie qu'il apparaîtra moins souvent dans les flux pour que moins de personnes le voient, en plus d'ajouter une étiquette superposée avec des informations supplémentaires pour ceux qui le voient malgré tout.
Il semble que ces vérificateurs de faits tiers seront confrontés à une charge de travail croissante alors que le contenu synthétique prolifère, stimulé par l'essor des outils d'IA générative. Et parce que davantage de ce contenu semble devoir rester sur les plateformes de Meta en raison de ce changement de politique.
Meta va étendre l'étiquetage des images générées par IA dans une année électorale chargée
L'UE publie des directives de sécurité électorale pour les géants des médias sociaux et d'autres relevant du champ d'application du DSA