LinkedIn. LinkedIn est aussi concerné par cette nouvelle réglementation. La loi européenne, le Digital Services Act (DSA) est entrée en vigueur en août dernier et les plateformes sont contraintes de respecter plusieurs règles. La première est de publier un rapport trimestriel sur les contenus supprimés après un acte de modération, car ils enfreignent une règle. Ils sont offensants, injurieux, poussent à la violence ou à la haine. Avec le DSA, les applications ont l’obligation de prendre des mesures concrètes pour éviter la propagation de ce type de publications.
Nous vous avons déjà présenté le premier rapport de transparence publié par X, de Meta et celui de TikTok. Place maintenant au document rédigé par LinkedIn. Comme ses concurrents, le réseau social professionnel à partager ses actions en matière de modération de contenus sur les six premiers mois de l’année 2023, donc jusqu’en juin.
Les chiffres à retenir du premier rapport de transparence de LinkedIn
Pour commencer, le site a tenu à rappeler ses objectifs. Le premier « est de connecter les professionnels du monde entier pour les rendre plus productifs et plus performants », peut-on lire en introduction. L’équipe a ensuite continué en analysant ce qui a été fait sur la plateforme. Voici ce qu’il faut en retenir:
- il y a 9,9 millions d’utilisateurs en France actifs chaque mois.
- à la fin du mois d’août, LinkedIn comptait sur 180 modérateurs en Europe. 30 d’entre eux se concentrent sur le marché francophone.
- 86.640 contenus et 9800 annonces d’emploi ont été signalés sur la période.
- Le temps moyen après le signalement était de 23 minutes.
Dans ce document, LinkedIn a également précisé la marche à suivre pour signaler une publication. Il suffit de cliquer sur les trois petits points, en haut, à droite du post et de cliquer sur « signaler le contenu ». L’utilisateur peut ensuite choisir la raison de son signalement (harcèlement, violence, usurpation d’identité…).
Vous pouvez retrouver le rapport complet de LinkedIn juste ici.