Le CSA monitore le Q sur la plateforme X (Twitter)

4schools / Media / News / Research

Le CSA publie les premiers résultats d’un monitoring dédié à l’accessibilité aux contenus pornographiques en ligne, notamment pour les mineurs, et plus particulièrement sur la plateforme X (anciennement Twitter). Il s’agit d’une étude unique en son genre pour l’instance de régulation qui a intégré pour la première fois dans son travail l’usage d’un outil d’intelligence artificielle spécialement conçu pour ce type d’analyse. Cette étude s’inscrit dans le prolongement de l’entrée en vigueur du Digital Services Act (DSA). Depuis le mois d’août dernier, les très grandes plateformes en ligne sont soumises à des obligations spécifiques, notamment en matière de transparence et de modération des contenus, en particulier lorsque ces derniers peuvent porter atteinte aux publics mineurs. Dans ce cadre, le monitoring opéré par le CSA portait exclusivement sur les contenus pornographiques diffusés sur X par des comptes francophones. Il s’est étendu sur une période de 4 mois, du 6 septembre au 11 décembre 2023. Durant ce laps de temps, près de 5 000 contenus potentiellement problématiques ont été répertoriés par l’intelligence artificielle. Parmi eux, 1041 contenus ont pu être traités par les équipes du CSA. Il apparaît que 908 d’entre eux contiennent un caractère clairement pornographique, ce qui représente un taux de détection positive de 89%.

Face à ce constat, le CSA s’est penché sur l’attitude de la plateforme X vis-à-vis de la présence de ces contenus pornographiques. Non seulement l’accès à ces derniers est quasi totalement libre, mais il apparaît à l’issue de ce monitoring qu’à peine 10% d’entre eux sont supprimés par la modération de X.

Une majorité de comptes exclusivement dédiés à la pornographie

Dans l’immense majorité des cas (98%), il est impossible d’établir l’origine géographique du contenu, mais 14 ont été automatiquement classifiés en Belgique francophone. Le suivi des comptes associés a permis d’identifier environ 75 comptes situés en FWB diffusant en masse des contenus pornographiques.  Les contenus détectés montrent qu’il ne s’agit pas de postes isolés mais de véritables comptes dédiés quasi exclusivement à la diffusion de contenus pornographiques (photos/vidéos). Cependant, seuls une dizaine de ces comptes ont pu être caractérisés comme des services de média audiovisuels et pouvant donc entrer dans le champ de compétence direct du CSA.

La majorité des vidéos, courtes et proposant des actes sexuels explicites sans narration, sont diffusées par deux types de profils. D’un côté, ceux que l’on pourrait qualifier d’« amateurs » et qui ne proposent pas de monétiser leurs contenus. De l’autre, des « professionnels » qui utilisent la plateforme X comme vitrine pour attirer des clients vers d’autres sites et services payants tels que Only Fans ou Mym Fans.

X, une plateforme dérégulée ?

À côté des annonces et des enquêtes qui se multiplient à l’international, le monitoring du CSA vient confirmer la quasi-absence de modération des contenus pornographiques sur la plateforme X. C’est ainsi que les autorités australiennes ont pu, d’une part, établir que X avait procédé au licenciement de plus de 1 200 modérateurs et, d’autre part, infliger une amende 385 000 dollars à la plateforme pour modération insuffisante des contenus préjudiciables. Le taux de détection exceptionnellement haut de ces contenus par des IA telles que celle utilisée par le CSA montre pourtant que la technologie peut identifier et bloquer des contenus pornographiques avec une marge d’erreur très faible.

Non seulement X est en infraction totale du point de vue du cadre légal européen du Digital Services Act (DSA) et de la Directive sur les médias de services audiovisuels, mais cette absence de modération pose des questions sur l’intention de l’éditeur. La majorité des comptes identifiés durant le monitoring sont des profils exclusivement dédiés à la diffusion de contenus pornographiques, ce qui représente une véritable activité sur la plateforme. Supprimer de tels contenus reviendrait aussi à réduire, voire faire disparaître ce type de flux. Cette question de la modération pourrait légitimement se poser pour d’autres types de contenus pouvant porter un préjudice grave aux mineurs et à tout public tels que les postes haineux, violents, ou portant atteinte à la dignité des personnes. Avec un développement supplémentaire, l’IA utilisée par le CSA dans le cadre de ce monitoring pourrait être étendue à l’analyse d’autres contenus, notamment en ce qui concerne la propagation des discours de haine en ligne.

L’IA comme outil pour assurer le rôle de surveillance des régulateurs

Nommée KIVI, l’interface utilisée par le CSA pour mener à bien cette étude est un outil d’intelligence artificielle développé par l’entreprise allemande Condat qui collabore également largement avec le DLM, le régulateur allemand des médias. Depuis 2021, le CSA a entamé une réflexion sur ses outils et les méthodologies utilisées dans le cadre de ses études. C’est cette réflexion qui l’a mené vers une première collaboration avec Condat.

De manière à adapter l’outil aux réalités belges francophones, le CSA a dressé une liste de 250 mots-clefs en français et identifié 90 comptes de super-propagateurs pour offrir à KIVI une base d’apprentissage lui permettant de débuter le monitoring. KIVI fonctionne sur le principe de machine learning ce qui lui permet, au fil des analyses, de se perfectionner et d’offrir un résultat toujours plus précis à condition de lui fournir un feedback adapté.

Le CSA a pour objectif d’étendre les capacités de cet outil vers d’autres analyses porteuses, notamment en ce qui concerne la propagation des discours de haine en ligne. Dans le cadre de la mise en œuvre de règlements européens majeurs tels que le DSA ou l’IA Act, mais aussi prochainement l’European Media Freedom Act (EMFA), les régulateurs nationaux devront endosser un rôle important en matière de surveillance, notamment des très grandes plateformes. « Tout cela nécessite d’une part une volonté de se saisir pleinement des nouveaux instruments législatifs au niveau des différents régulateurs concernés et un investissement dans des ressources humaines et technologiques, » rappelle Karim Ibourki, président du CSA avant de conclure : « On ne peut continuer à tolérer une asymétrie régulatoire entre les acteurs médias traditionnels et les plateformes. »