Specter of Russian interference hangs over Slovak election, EU warns thumbnail

Le spectre d’une ingérence russe plane sur les élections slovaques, prévient l’UE

Appuyez sur play pour écouter cet article

Exprimé par l’intelligence artificielle.

Les prochaines élections slovaques sont « un test » de la vulnérabilité des élections européennes face à « l’arme de manipulation massive de plusieurs millions d’euros » que Moscou utilise pour s’immiscer dans les votes par le biais de la désinformation en ligne, a déclaré mardi le responsable des affaires numériques de l’Union européenne.

Les Slovaques se rendront aux urnes le 30 septembre pour les élections législatives. En tête des sondages se trouve le parti populiste Smer-SD dirigé par Robert Fico, l’ancien Premier ministre controversé du pays, favorable à la fin du soutien militaire à l’Ukraine.

Le vote est crucial « parce que l’approche à l’égard de la Russie ou de l’Ukraine constitue une ligne de division », a déclaré la vice-présidente de la Commission européenne, Věra Jourová, responsable politique tchèque en charge des affaires numériques et de la démocratie au niveau européen.

L’UE organisera également ses propres élections au Parlement européen en juin de l’année prochaine. La Pologne choisira son prochain gouvernement le 15 octobre, lors d’une autre élection cruciale qui pourrait influencer les perspectives de la Russie dans sa guerre en Ukraine.

Le risque que Moscou s’immisce dans les élections européennes de l’année prochaine est « particulièrement sérieux », a déclaré Jourová. « L’État russe s’est engagé dans la guerre des idées pour polluer notre espace d’information avec des demi-vérités et des mensonges afin de créer une fausse image selon laquelle la démocratie ne vaut pas mieux que l’autocratie », a-t-elle déclaré.

La Commission et le régulateur slovaque des médias ont eu une série de réunions à Bratislava au début du mois avec des sociétés telles que Meta de Facebook, Alphabet de Google et TikTok, leur demandant d’investir davantage pour réduire le problème, a rapporté lundi POLITICO. Jourová a déclaré que le pays était un « terrain fertile » pour les récits russes pro-guerre, faisant écho aux craintes similaires exprimées par des chercheurs indépendants et l’organisme de surveillance des médias du pays.

Une enquête menée par le groupe de réflexion GLOBSEC en mars a montré que 53 pour cent des Slovaques pensaient que les élections seraient manipulées. Le régulateur slovaque des médias a également noté précédemment que Meta n’avait engagé qu’un seul vérificateur de faits pour Facebook, dans le cadre d’un examen de la modération des contenus illégaux par les grands médias sociaux. Jourová a déclaré que Facebook avait promis d’augmenter le nombre de vérificateurs de faits et qu’elle avait reçu des informations selon lesquelles le réseau social, très populaire en Slovaquie, avait déjà recruté du personnel pour vérifier les mensonges potentiels diffusés sur la plateforme.

La Commission a publié mardi des rapports détaillés sur la manière dont les réseaux sociaux Facebook, YouTube et TikTok ont ​​​​traité les mensonges circulant en ligne au premier semestre 2023, dans le cadre d’un examen régulier des plateformes en ligne qui ont signé une charte volontaire de l’UE sur la désinformation. Il demande aux entreprises technologiques de fournir des informations, notamment sur la manière dont elles suivent la publicité politique, mettent fin à la monétisation de la désinformation et coopèrent avec les vérificateurs des faits.

Le Code de bonnes pratiques contre la désinformation de 2022 a été adopté en juin 2022 et signé par 44 participants, dont des sociétés de médias sociaux, des groupes de vérification des faits et des associations publicitaires. Le bloc met également en œuvre sa loi sur la modération des contenus, la loi sur les services numériques (DSA), qui oblige les grandes plateformes technologiques comptant plus de 45 millions d’utilisateurs dans l’UE à atténuer les risques de campagnes de désinformation et qui devrait rendre la charte de désinformation contraignante pour les très grandes entreprises. plateformes en ligne au cours du premier semestre 2024.

Le X de Musk n’est pas tiré d’affaire

Dans leurs rapports, les sociétés de médias sociaux ont signalé des activités au cours du premier semestre 2023 qui portaient la marque de campagnes d’influence parrainées par l’État russe.

YouTube a fermé plus de 400 chaînes impliquées dans des opérations d’influence coordonnées liées à l’Agence de recherche Internet (IRA) parrainée par l’État russe, selon le rapport de Google.

TikTok a également supprimé plusieurs campagnes de désinformation, notamment un réseau de plus de 3 000 faux comptes en provenance de Russie, suivi par environ 418 000 personnes qui partageaient de faux contenus en allemand sur la guerre en Ukraine et ses conséquences sur les économies des pays de l’UE, a indiqué la société. L’application chinoise de partage de vidéos a déclaré avoir également supprimé 5,9 millions de faux comptes, principalement en Espagne, en Allemagne, en Italie et en France, au premier semestre, contre 850 000 comptes inauthentiques au second semestre 2022. a déclaré que des tiers malveillants « sondent et attaquent constamment » leurs systèmes, provoquant « des fluctuations occasionnelles dans les mesures signalées dans ces domaines ».

SONDAGE ÉLECTORAL AU PARLEMENT NATIONAL DE SLOVAQUIE

Pour plus de données de sondage provenant de toute l’Europe, visitez POLITIQUE Sondage des sondages.

LinkedIn a également empêché plus de 6,7 millions de personnes – pour la plupart originaires de France, de Roumanie et d’Allemagne – de s’enregistrer ou de les restreindre, contre environ 849 500 faux comptes au second semestre de l’année dernière. Meta a déclaré avoir supprimé 1,102 millions de faux comptes dans le monde au cours du premier semestre 2023, soit environ 4 à 5 % de ses utilisateurs actifs mensuels mondiaux.

Aucune des données partagées par les entreprises n’a été auditée.

Mais c’est X, la plateforme de médias sociaux anciennement connue sous le nom de Twitter, qui a été critiquée par les responsables européens pour son incapacité à endiguer la désinformation. « X, l’ancien Twitter – qui n’est plus soumis au Code – est la plateforme avec le plus grand taux de messages de mésinformation ou de désinformation », a déclaré Jourová. « Les acteurs de la désinformation (sur X) ont nettement plus de followers que leurs homologues non-désinformation et ont tendance à avoir rejoint la plateforme plus récemment que les utilisateurs non-désinformation », a-t-elle déclaré, faisant référence à une recherche soutenue par l’UE.

« Elon Musk sait qu’il n’est pas à l’abri en quittant le Code de bonnes pratiques, car la loi sur les services numériques est pleinement en vigueur », a-t-elle déclaré.

Twitter a quitté la charte fin mai après avoir échoué son premier test de désinformation de l’UE, ce qui a suscité à l’époque la condamnation des responsables de la Commission.

Jourová a déclaré que la plateforme devrait se concentrer sur « une modération et un investissement cohérents dans la vérification des faits, en particulier dans les petits États membres et dans les langues », ainsi que sur l’ouverture de leurs données aux chercheurs.

Des plateformes comme TikTok et Google ont également mis en place des politiques visant à limiter l’utilisation abusive du contenu généré par l’IA comme les deepfakes. « Ces efforts doivent se poursuivre et s’intensifier, compte tenu du fort potentiel de produits d’IA aussi réalistes tout en créant et en diffusant de la désinformation », a déclaré Jourová.

« La combinaison de l’IA et de la désinformation est un cauchemar », a-t-elle déclaré, promettant d’approcher les dirigeants d’OpenAI, propriétaire de ChatGPT, pour qu’il rejoigne le code de désinformation de l’UE.

Google a refusé de commenter la demande de commentaires de POLITICO. Meta et X (anciennement Twitter) n’ont pas immédiatement répondu aux demandes de commentaires.

Caroline Greer, directrice des politiques publiques et des relations gouvernementales de TikTok à Bruxelles, a déclaré dans un article de blog que la société de médias sociaux s’était engagée à protéger l’intégrité des élections dans le monde. Elle a ajouté que les initiatives mises en œuvre lors des élections en Grèce, en Espagne et en Finlande seront prises en compte pour préparer les élections européennes.

Un porte-parole de LinkedIn a déclaré que son rapport sur la charte est « une étape importante pour accroître la transparence et garantir que notre communauté reste fiable et professionnelle… Nos défenses et nos équipes examinent une série de signaux concernant l’enregistrement et l’activité d’un compte sur la plateforme afin pour attraper les faux comptes.

Cet article a été mis à jour pour inclure des détails sur les rapports des plateformes en ligne et les réponses des entreprisesainsi que les commentaires du commissaire européen.

A lire également