Meta, la maison mère de Facebook et Instagram, revoit sa politique concernant les contenus manipulés à la lumière des retours de son Conseil de surveillance. L’objectif ? Mieux refléter la diversité des contenus existants et fournir du contexte aux utilisateurs grâce à des labels. Ce changement s’appuie également sur un processus interne de révision des politiques publiques, incluant de vastes sondages d’opinion et des consultations avec des universitaires, des associations et autres acteurs.
Meta reconnaît la pertinence de l’argument du Conseil de surveillance jugeant l’approche actuelle trop restrictive. Auparavant, seule la modification de vidéos par IA pour faire dire quelque chose de faux à une personne était sanctionnée. Or, la politique datait de 2020, une époque où les contenus IA réalistes étaient rares et où l’inquiétude principale concernait les vidéos. Depuis, l’essor de l’IA a vu naître des contenus audio et photo hyperréalistes.
Le Conseil de surveillance a également souligné le risque de limiter indûment la liberté d’expression en supprimant des contenus modifiés par IA qui ne violent pas les Standards de la Communauté. Il préconise donc une approche « moins restrictive » basée sur des labels explicatifs. En février dernier, Meta annonçait une collaboration avec des partenaires de l’industrie pour établir des standards techniques communs d’identification des contenus IA, incluant la vidéo et l’audio.
Désormais, les labels « Créé avec IA » s’appliqueront aux vidéos, sons et images générés par intelligence artificielle. Ces labels reposeront sur la détection de signaux partagés par l’industrie ou sur la déclaration volontaire des utilisateurs. Meta utilise déjà le label « Imaginé avec IA » pour les images photoréalistes créées via son outil Meta AI.
La priorité est désormais la transparence et le contexte. Les labels couvriront une gamme plus large de contenus que ceux recommandés par le Conseil de surveillance. En cas de risque élevé de tromperie du public sur un sujet important, Meta se réserve le droit d’ajouter un label plus visible pour une meilleure information contextuelle. Cette approche globale vise à doter les utilisateurs d’un maximum d’informations pour une meilleure évaluation du contenu et une meilleure compréhension en cas de future rencontre avec ce type de contenu.
Les contenus resteront en ligne afin d’être étiquetés et contextualisés, sauf s’ils enfreignent les politiques de la plateforme. Par exemple, Meta supprime tout contenu, qu’il soit créé par IA ou non, s’il contrevient aux politiques contre l’ingérence électorale, le harcèlement, la violence ou l’incitation à la haine. Le réseau de près de 100 fact-checkers indépendants continuera de passer au crible les contenus trompeurs et fallacieux générés par IA. Les contenus jugés « Faux » ou « Modifiés » par les fact-checkers seront moins visibles dans le fil d’actualité et accompagnés d’un label explicatif. De plus, les publicités contenant du contenu démystifié seront rejetées et, depuis janvier, les annonceurs doivent divulguer la création ou la modification numérique de publicités politiques ou sociales dans certains cas.
Le déploiement des labels pour les contenus IA débutera en mai 2024, suivi de l’arrêt des suppressions basées uniquement sur la politique relative aux vidéos manipulées en juillet. Ce délai permettra aux utilisateurs de comprendre le processus de déclaration volontaire avant la fin des suppressions ciblant une portion limitée de contenus modifiés.