Facebook posts that make you feel bad thumbnail

Publications Facebook qui vous font vous sentir mal

Appuyez sur play pour écouter cet article

Exprimé par l’intelligence artificielle.

Un garçon de 2 ans a été tué par une infection mangeuse de cerveau. Des patients hospitalisés ont été brûlés vifs, attachés à des lits d’hôpital. Une femme a été retrouvée morte au bord d’une route. Une fillette de 5 ans est décédée devant ses parents.

Des publications sur Facebook faisant état de récits de décès, d’accidents et de symptômes de santé inquiétants apparaissaient à plusieurs reprises sur le fil des médias sociaux d’une nouvelle mère polonaise d’une trentaine d’années. Joanna, dont le nom a été changé pour protéger sa vie privée, avait également récemment perdu un être cher et consultait un thérapeute pour dépression et anxiété.

« Ce type de contenu est l’un des déclencheurs les plus classiques qui alimentent mon anxiété et rendent la guérison très difficile », a-t-elle déclaré à POLITICO.

Plus de la moitié des messages envoyés à Joanna par l’algorithme de Facebook étaient liés à ses craintes, selon une analyse réalisée pendant deux mois par la Fondation Panoptykon, une organisation à but non lucratif de défense des droits numériques, avec un universitaire spécialisé dans les audits d’algorithmes, Piotr Sapieżyński, et partagée exclusivement avec POLITICO. . Demander à Facebook de masquer les publications suggérées ne semble entraîner qu’une légère augmentation du nombre de publications inquiétantes, a déclaré le groupe.

Les algorithmes des sociétés de médias sociaux ont fait l’objet d’une surveillance croissante ces dernières années. Meta Platforms fait l’objet d’une attention particulière depuis que la lanceuse d’alerte Frances Haugen a accusé son ancienne entreprise de ne pas limiter les contenus préjudiciables sur sa plateforme – des allégations que Meta nie.

L’algorithme de TikTok a également été pointé du doigt en raison de préoccupations concernant la manière dont il propose des recommandations addictives et potentiellement dangereuses.

Mais les régulateurs outre-Atlantique ont commencé à sévir ces derniers mois. La Commission européenne a commencé à appliquer la loi européenne sur la réglementation des contenus, la loi sur les services numériques (DSA) – ciblant Meta, TikTok et YouTube – depuis novembre.

Meta a déjà reçu quatre demandes distinctes visant à clarifier comment il se conforme à plusieurs obligations en vertu du DSA, notamment comment son algorithme Instagram gère la propagation de contenus préjudiciables. Les amendes pourraient aller jusqu’à 6 % du chiffre d’affaires mondial d’une entreprise.

Aux États-Unis, 33 États ont uni leurs forces fin octobre pour poursuivre Meta, alléguant que les algorithmes de ses plateformes incitaient les utilisateurs à s’enfoncer dans de profonds « trous de lapin » pour maximiser l’engagement.

La nouvelle analyse centrée sur Joanna a montré « les conséquences de l’optimisation des algorithmes pour l’engagement sans donner de pauses ni de ceintures de sécurité », a déclaré Katarzyna Szymielewicz, directrice de Panoptykon.

En juin 2023, près de 54 % des messages envoyés à Joanna par l’algorithme de Facebook contenaient du contenu sur la mort subite de jeunes, des signes physiques alarmants, des maladies, des accidents et des décès. En juillet, environ 57 % de ces publications ont été publiées même après plusieurs jours passés à cliquer sur « Masquer la publication, voir moins de publications comme celle-ci » sur 122 publications suggérées. Au cours des deux mois, Joanna a vu 1 416 messages inquiétants.

« J’étais frustrée parce que je me sentais exploitée et piégée », a-t-elle déclaré, se rappelant que des contenus anxiogènes lui étaient constamment suggérés même lorsqu’elle disait à Facebook qu’elle souhaitait voir moins de ce type de contenu.

La Commission européenne a commencé à appliquer la loi européenne sur la réglementation des contenus, la loi sur les services numériques (DSA) — ciblant Meta, TikTok et YouTube — depuis novembre | Olivier Hoslet/EFE via EPA

Ben Walters, porte-parole de Meta, a déclaré que l’étude polonaise était erronée. « Il a une taille d’échantillon d’un, suppose à tort que les gens n’ont aucune influence sur ce qu’ils voient dans leurs flux, et ne s’intéresse qu’à un seul outil alors que nous proposons de nombreuses autres façons aux gens de contrôler les types de contenu qu’ils voient », a-t-il déclaré. .

La société n’a pas répondu aux questions sur les mesures prises pour garantir que les algorithmes de recommandation de Facebook ne suggèrent pas de contenu toxique, et n’a pas non plus commenté en détail la manière dont elle se conformait au DSA.

A lire également