Social media. Entré en vigueur le 25 août 2023, le Digital Services Act (DSA) a pour but de diminuer la diffusion de contenus illégaux et de faire en sorte que les plateformes qui proposent des services soient plus transparentes avec les utilisateurs, dans l’Union européenne. Les réseaux sociaux ont, entre autre, l’obligation de fournir des rapports de transparence, afin de s’assurer qu’ils sont bien en règles au vue de la législation. L’idée est d’un peu mieux comprendre comment ils fonctionnent.
L’un des plus grands mystères des réseaux sociaux réside dans leurs algorithmes. Ces derniers décident des contenus qui sont mis en avant et recommandés aux utilisateurs. Le 2 octobre, dans un communiqué, la Commission européenne a demandé des informations supplémentaires aux plateformes TikTok, Snapchat et YouTube concernant leur algorithme de recommandation, pour mieux comprendre leur conception et leur fonctionnement. Ils ont jusqu’au 15 novembre pour fournir les détails demandés.
Ce que la Commission européenne demande aux réseaux sociaux
Sur TikTok, YouTube et Snapchat, l’algorithme des recommandations suggère de nouveaux contenus aux utilisateurs, en lien avec ce qu’ils consomment habituellement. YouTube a déjà mis à jour son algorithme pour les comptes des adolescents, pour éviter qu’ils soient en contact avec des contenus nuisibles, qui affectent leur santé mentale. Le but de la Commission européenne est de vérifier que cet algorithme « évalue et atténue de manière adéquate les risques systémiques liés à leurs systèmes de recommandation, y compris les risques pour la santé mentale des utilisateurs et la diffusion des contenus nuisible », peut-on lire dans un communiqué de presse.
En ce qui concerne YouTube et Snapchat, ils doivent fournir des informations sur les paramètres de leur algorithme, surtout après avoir publié des informations concernant les élections, la santé mentale, ainsi que la protection des mineurs, un enjeu clé du DSA. Pour TikTok, cette demande d’information vise à éviter la manipulation de l’application par des personnes jugées malveillantes. Les plateformes ont jusqu’au 15 novembre pour fournir un rapport, avant que la Commission européenne ne prenne une décision sur une potentielle ouverture d’enquête ou de donner d’éventuelles sanctions.