L’IA sur les réseaux sociaux, quelles sont les mesures mises en place?

L’IA sur les réseaux sociaux, quelles sont les mesures mises en place?

Réseaux sociaux. Que ça soit sur Instagram ou sur YouTube, l’intelligence artificielle devient de plus en plus présente dans le quotidien des créateurs de contenu. Quand certains s’interrogent quant aux possibilités de l’utiliser pour penser à leurs contenus d’ici quelques années, d’autres s’en servent pour animer des publications. De cette manière, on trouve assez facilement des vidéos intitulées « ChatGPT décide de ma journée ». Dans une conversation avec l’outil, les influenceurs se laissent guider par les conseils énumérés au fil de leurs questions.

Mais avec l’intelligence artificielle, il est possible d’aller encore plus loin, comme de générer de fausses images et vidéos. Depuis plusieurs mois, les exemples ne manquent pas pour montrer à quel point ces outils peuvent facilement nous tromper. Un vieux monsieur ensanglanté dans une manifestation, le pape en grosse doudoune blanche, Selena Gomez sur le tapis du Met Gala… Ce que ces trois photos ont en commun? Elles ne sont pas réelles et ont été imaginées à partir d’une IA, puis ont été partagées sur les réseaux sociaux. Sans y prêter une attention particulière ou en se lançant influencer, on peut rapidement se laisser convaincre et y croire.

Le contenu généré par l’IA sur les réseaux sociaux, une réflexion en cours

Comme vous le savez, sur les réseaux sociaux, tout peut aller très vite. Même (surtout) les fausses informations. Comment faire face à ces nouveaux outils permettant de créer des images et des vidéos aussi vraies que nature? Quel est le rôle des plateformes les hébergeant? Ces questions ont pour une fois été saisies assez rapidement par les applications sociales. Elles sont nombreuses à avoir pris position publiquement à ce sujet. Voici un tour d’horizon de ce qui a été dit et fait.

  • Twitter

Commençons par celle qui semble avoir compris l’importance du sujet avant les autres. L’équipe de Twitter a compris tout l’enjeu dès 2020, dans un billet de blog rédigé par Yoel Roth, Former Head of Trust & Safety, avec Ashita Achuthan, évoluant dans l’équipe produit. Ensemble, ils ont mené une enquête auprès de 6500 utilisateurs de Twitter, des experts ainsi que des universitaires pour faire évoluer leur règlement en y incluant les contenus générés par l’IA.

« Plus de 70 % des utilisateurs de Twitter ont déclaré qu’il serait inacceptable de ne prendre aucune mesure à l’égard des médias modifiés et trompeurs. Les personnes interrogées se sont montrées presque unanimement favorables à ce que Twitter fournisse des informations ou un contexte supplémentaires sur les tweets comportant ce type de média », écrivent-ils. Quelles sont les mesures à avoir été mises en place? Pour aider les utilisateurs à plus facilement identifier une image ou une vidéo non réelle, la plateforme dit se permettre d’apposer un avertissement sur la publication en question. Si le post est problématique, Twitter peut le supprimer. La situation est certainement en train d’évoluer avec les nouvelles applications arrivées sur le marché.

Sous ce tweet par exemple, une case a été ajoutée pour prévenir que des utilisateurs ont précisé que ce n’était pas vrai:

  • TikTok

De son côté, l’équipe de TikTok salue la créativité de certains utilisateurs ayant recours à l’intelligence artificielle. La plateforme ne nie pas, cependant, les aspects négatifs de ce type d’outil. « Les médias altérés ou trompeurs qui montrent des scènes réalistes doivent être clairement divulgués. Cela peut se faire au moyen d’un autocollant ou d’une légende, comme « synthétique », « faux », « pas réel » ou « modifié » », peut-on lire sur une page dédiée.

@vincemurruia Le text-to-video devient incroyablement puissant #ia #intelligenceartificielle #runway #texttovideo #fyp #fypシ ♬ son original – Vincent Murru | IA

L’équipe poursuit en expliquant qu’il n’est pas autorisé d’utiliser l’image d’une personnalité publique, d’un adulte dans une scène privée ou bien d’une personne jeune, dans une publication générée par l’IA et ne respectant pas les règles de l’application. Il y a toutefois des exceptions, comme « une célébrité exécutant une danse TikTok populaire, et un personnage historique présenté dans une leçon d’histoire. »

Enfin, d’après une enquête menée par The Information, l’application serait en train de travailler sur un outil obligeant les créateurs de contenu à préciser lorsqu’ils utilisent une IA dans leur publication.

  • Meta

Le groupe Meta a également communiqué à ce sujet, mais de manière un peu plus large. Sur la page où il est évoqué le contenu imaginé depuis une IA, il est aussi question de tous les outils permettant aux utilisateurs de mentir sur leur identité ou de gonfler les chiffres de leur communauté.

Concernant le sujet qui nous intéresse aujourd’hui, le document où les règles de bonne conduite sont précisées, ne comporte qu’une petite ligne sur les publications créées de toute pièce. Il est ainsi écrit qu’il est interdit d' »adopter ou tenter d’adopter un comportement trompeur, qui est défini comme l’utilisation des ressources Facebook ou Instagram (comptes, Pages, Groupes ou Évènements) pour tromper des personnes sur Facebook […], sur la source ou l’origine du contenu. » Par « interdit », nous en déduisons que le post peut-être supprimé.

  • LinkedIn

Pareil que pour TikTok, LinkedIn encourage ses utilisateurs à devenir plus créatifs en utilisant l’intelligence artificielle. « Chez LinkedIn, nous recommandons aux membres de continuer à créer et à partager leur propre contenu professionnel, mais nous savons également que l’IA, lorsqu’elle est utilisée de manière responsable, peut favoriser la création et ajouter de la valeur aux idées originales d’un membre », peut-on lire dans une page dédiée. L’équipe précise cependant quelques bonnes pratiques à avoir en tête pour ne pas risquer d’enfreindre le règlement.

L’utilisateur doit s’assurer qu’en ayant recours à l’IA, il répond aux règles de droits d’auteur, « notamment les droits de propriété intellectuelle et ceux liés à la protection de la vie privée. » Il leur est également demandé de préciser lorsqu’un contenu a été pensé avec un outil de ce type. Enfin, l’IA doit être considérée « comme un outil et non comme une béquille. »

  • Pinterest, Twitch, YouTube…

Pour les autres applications, il ne semble pas y avoir eu de prises de décisions claires encore aujourd’hui. Le contenu qui ne respecte pas leurs règles est supprimé, ce qui peut forcément inclure des contenus imaginés depuis une intelligence artificielle. Ce n’est pas pour autant que le sujet n’est pas discuté en interne. En mars dernier, le CEO de Pinterest expliquait dans une interview accordée à Good Morning America, à quel point pour lui, l’IA allait révéler « le plus mauvais côté de l’être humain ».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *