TikTok a annoncé le 9 mai qu'elle mentionnera quels contenus sont produits par des algorithmes d’intelligence artificielle (IA) sur sa plateforme pen prévention à la désinformation et à la tromperie des utilisateurs. Cette mesure intervient alors que l’authenticité en ligne est remise en question par l’apparition d’interfaces IA capables de générer textes, images et vidéos à la demande.
La montée de l’IA générative risque d’exacerber les problèmes liés aux deepfakes. TikTok a exprimé dans un communiqué que bien que l’IA offre des possibilités créatives extraordinaires, elle peut aussi induire en erreur si les utilisateurs ne sont pas conscients de sa présence derrière certains contenus.
Nos collègues de Stratégies indiquent que, pour contrer cela, TikTok va introduire une étiquette spéciale pour ces contenus IA, particulièrement ceux téléchargés depuis certaines plateformes, bien que les détails restent vagues. TikTok n’a pas précisé quelles plateformes seraient affectées, mais a mentionné que celles appartenant à la Coalition pour la provenance et l’authenticité des contenus (C2PA) (Google, OpenAI, Adobe et Microsoft) pourraient être impliquées.
OpenAI, Adobe et Microsoft ont déjà mis en œuvre un système de marquage automatique pour les contenus IA, et Google a lancé un outil similaire en mars. Meta, qui n’est pas membre du C2PA, a également déclaré qu’il signalerait les contenus IA avec la mention « Made with AI ».
Enfin, TikTok a rejoint la C2PA et l’initiative pour l’authenticité des contenus (CAI) dirigée par Adobe, soulignant l’importance de la transparence pour les utilisateurs. Adam Presser de TikTok et Dana Rao d’Adobe ont tous deux insisté sur la nécessité d’outils permettant aux utilisateurs de distinguer le vrai du faux. TikTok rappelle avoir déjà mis en place un système de labellisation pour les contenus modifiés par son outil IA, TikTok AI, et prévoit de publier des vidéos éducatives pour clarifier sa politique.