Meta. Le groupe Meta ne pouvait pas y échapper non plus! La loi européenne, le Digital Services Act (DSA) est entrée en vigueur en août dernier et les plateformes sont contraintes de respecter plusieurs règles. La première est de publier un rapport trimestriel sur les contenus supprimés après un acte de modération, car ils enfreignent une règle. Ils sont offensants, injurieux, poussent à la violence ou à la haine. Avec le DSA, les applications ont l’obligation de prendre des mesures concrètes pour éviter la propagation de ce type de publications.
Nous vous avons déjà présenté le premier rapport de transparence publié par X et celui de TikTok. Place maintenant au document rédigé par le groupe Meta. Deux fichiers, l’un dédié à Instagram et l’autre à Facebook ont été mis en ligne le 27 octobre. Les données couvrent une durée bien précise: d’avril à septembre 2023.
5 chiffres à retenir du premier rapport de transparence de Meta
Les trois derniers mois chez Meta ont été résumés de cette manière:
- Le temps moyen de réaction après un signalement est de 27,7 heures pour Facebook et de 20,4 heures pour Instagram.
- Près de 50 millions de contenus ont été supprimés sur Facebook, dont 1,7 million par les utilisateurs. La majeure partie d’entre eux concernaient des publications pour adulte. Sur Instagram, ce sont plus 76 millions de contenus qui ont été supprimés. 9,5 millions de comptes ont été supprimés.
- 2634 signalements ont été faits sur Facebook et près de 27.000 sur Instagram.
- Le groupe Meta compte 1362 modérateurs en Europe, dont 226 en France (ce qui inclut des modérateurs pour surveiller le contenu francophone en-dehors de l’UE).
Meta ne fait pas de commentaires sur le travail effectué au cours de ces derniers mois. L’introduction reste très large et précise simplement que le groupe « s’engage à donner la parole aux utilisateurs et à assurer leur sécurité. »
Vous pouvez retrouver le rapport d’Instagram ici et celui de Facebook ici.