

Rien n’est exclu pour empêcher la Russie de gagner la guerre en Ukraine, pas même l’envoi de troupes au sol. Depuis qu’Emmanuel Macron a tenu cette position fin février, il est devenu une cible de choix de la propagande pro-russe. Ces dernières semaines, plusieurs fausses Unes de journaux caricaturant le président français sont apparues sur les réseaux sociaux. Cette campagne de désinformation s’appuie sur différents médias européens. Emmanuel Macron a-t-il été caricaturé à la Une de dans l’édition du 20 mars 2024 ? C’est ce que prétendent, à tort, plusieurs internautes sur les réseaux sociaux, images à l'appui. On y voit Emmanuel Macron dessiné, torse nu, drapeau français à la main, partant à l’assaut avec une armée de punaises de lit, fusils vers le ciel. Une référence directe au célèbre tableau d’Eugène Delacroix. Sous cette caricature, il est écrit « », à savoir « », ajoute un commentaire russophone en légende. En réalité, ce dessin n’a jamais été publié à la Une de . En se rendant SUR LE SITE OFFICIEL DE L’HEBDOMADAIRE SATIRIQUE FRANÇAIS https://charliehebdo.fr/editions/1652/, on retrouve la couverture originale du 20 mars 2024. Elle est dédiée non pas à Emmanuel Macron, mais à Vladimir Poutine et au Rassemblement national. Autres éléments de vérification sur cette Une manipulée, le positionnement du code barre, le numéro d’identification du journal et les titres des articles ne correspondent pas au journal officiel. LA PROPAGANDE RUSSE EN ACTION D’après nos recherches, cette infox apparaît pour la première fois sur la chaîne Telegram d’un influenceur ukrainien pro-russe, suivi par plus de 417 000 personnes. Ce n’est pas la première fois que ce compte partage en premier des fausses Unes qui sont ensuite relayées en masse par les traditionnels canaux de propagande pro-russe. Ces relais de diffusion ont également récemment publié une autre fausse couverture avec Emmanuel Macron. Cette fois, c’est l’identité du magazine turc, qui est usurpée. On y voit Emmanuel Macron, en studio, avant une interview télévisée, pendant que des punaises de lit lui apportent du café et préparent le matériel vidéo. Cette caricature, publiée un jour après l’intervention du chef de l’État sur France 2, est baptisée « ». Une nouvelle fois, la couverture authentique du magazine disponible SUR LE SITE INTERNET DE https://leman.com.tr/sayilar/ ne fait pas référence à Emmanuel Macron. LE NARRATIF DES PUNAISES DE LIT Pour comprendre cette référence constante aux punaises de lit dans la propagande russe, il faut remonter en fin d’année dernière quand la psychose autour des punaises de lit a envahi le débat public en France. Le gouvernement affirme aujourd’hui que cette paranoïa a été « » par des « ». Depuis, la propagande russe continue de véhiculer ce narratif pour dénigrer la France. Les fausses Unes de journaux sont un support parmi d’autres pour pousser ce récit. Des montages photos avec des punaises de lit envahissant Paris circulent d’ailleurs sur les réseaux sociaux ces dernières semaines, jusqu’ici à bas bruits. Cela montre que ce levier de désinformation risque aussi d’être activé pendant les Jeux olympiques. Une période fortement exposée aux attaques informationnelles, venues de Russie et d’ailleurs. À écouter aussiStop fake, une décennie de résistance à la désinformation russe en Ukraine https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox/20240322-stop-fake-une-décennie-de-résistance-à-la-désinformation-russe-en-ukraine


En Afrique du Sud, la prolifération des fausses informations suscite des inquiétudes à l’approche des élections du 29 mai. Un scrutin crucial alors que le Congrès national africain (ANC) pourrait perdre sa majorité. Le 9 mars dernier, une vidéo a fait couler beaucoup d’encre. On y voyait l’ancien président américain Donald Trump appeler à voter pour un nouveau parti d’opposition rejoint par l’ancien président Jacob Zuma. En réalité, la vidéo a été créée par un outil d’intelligence artificielle. Lors des élections générales, les Sud-Africains votent pour un parti et non pour un candidat à la présidence. Les partis se voient ensuite attribuer des sièges au Parlement, qui en compte 400, en fonction de leur part de voix, et les députés élisent le Président. Le pays est actuellement en campagne électorale et comme l’Afrique du Sud compte plus de 45 millions d’internautes actifs, la bataille se joue bien sûr aussi sur les réseaux sociaux. C’est dans ce contexte qu’est apparue cette vidéo trompeuse de Donald Trump. UN COURT EXTRAIT AU FORMAT TIK-TOK La vidéo n’a pas été postée n’importe où. Elle figure toujours, à la date du 9 mars, sur le compte X de Duduzilé Zuma-Sambudla, qui n’est autre que la fille de l’ancien président sud-africain Jacob Zuma… Nous y reviendrons. L’extrait ne dure qu’une vingtaine de secondes : « ». À en croire cet enregistrement, Donald Trump lui-même candidat à la Maison-Blanche aux États-Unis, appelle à voter « », cette formation dissidente de l’ANC qui est aujourd’hui un petit parti radical rejoint, donc, par le sulfureux Jacob Zuma. https://www.rfi.fr/fr/afrique/20240309-afrique-du-sud-l-ancien-président-jacob-zuma-tête-de-liste-d-un-parti-dissident-de-l-anc-aux-législatives L’intonation, la syntaxe, et même les erreurs de prononciation courantes sur les noms sud-africains renforcent la crédibilité de cette vidéo. L’audio est de très bonne qualité, mais les images qui vont avec sont moins bonnes, même si le mouvement des lèvres est plutôt bien reproduit. Pourtant, il s’agit bien d’un détournement de l’image de Donald Trump au service d’un parti politique local. DES DEEP-FAKES FACILES À FABRIQUER La technique est de plus en plus courante : elle consiste à utiliser un outil d'intelligence artificielle permettant de truquer un discours, en faisant dire à quelqu’un des mots qu’il n’a jamais prononcés. En Afrique du Sud, le centre d’étude ISS African Futures https://gw000151-eu.fortimail.com/fmlurlsvc/?fewReq=:B:JVYyOT07Mi5NTomOC5hbDU4OTI4OS57YW9maXx9em01PT06bj8/OT08OjE8P2xtOD1pMDA9bmpsbWk qui s’est penché sur la question. Dans une publication sortie cette semaine et intitulée « » les auteurs de l'étude assurent que le faux discours de Donald Trump a été créé par le Logiciel « Parrot AI » http://www.tryparrotai.com/. Ce dernier, permet à un utilisateur de sélectionner un avatar de célébrité. Dans le catalogue, on trouve les principaux dirigeants mondiaux. Il suffit ensuite de taper un script qui sera prononcé par une voix artificielle… LE RÔLE DE LA PUISSANTE INFLUENCEUSE ZUMA-SAMBUDLA Sur les réseaux, les réactions ont été contrastées face à ce Deep-Fake. Les citoyens qui connaissent la technologie en question ont tout de suite compris qu’il s’agissait d’une manipulation, les autres se sont posés des questions comme en témoignent les commentaires laissés le 9 mars sur le compte X de Zuma-Sambudla. C’est précisément l’origine de l’infox qui est venue semer le trouble dans la tête du public. Le faux discours a été publié sur le compte X de la fille de Jacob Zuma qui à 42 ans est une dirigeante importante au sein du parti, et qui s'est révélée être aussi une super influenceuse, propagatrice de fausses informations. En 2022, Zuma-Sambudla avait largement participé à l'amplification en Afrique du Sud de la campagne #IStandWithPoutine #IStandWithRussia. Traduction : « » au moment de l'invasion de l'Ukraine. L'ISS African Futures, souligne que la fille de Jacob Zuma relaie déjà des menaces de violences si les élections ne se déroulaient pas comme prévu, le 29 mai. Enfin, la messagerie WhatsApp, (principal mode de communication en Afrique du Sud) est par ailleurs devenue un important portail de diffusion d'Infox, d'autant puisqu’elle échappe à la modération des contenus, rappelle le centre de recherche. À lire, au propos de la désinformation, la charte sur l'usage des réseaux sociaux en Afrique du Sud de la SAHRCommission https://www.sahrc.org.za/home/21/files/SAHRCSocialMediaCharterFINAL.pdf.


Quatre jours après la démission du Premier ministre Ariel Henry, la situation politique et sécuritaire ne s’améliore pas en Haïti. Face à la crise humanitaire, l'ONU a promis ce mercredi 13 mars la mise en place d'un pont aérien pour acheminer de l’aide. Un contexte particulièrement propice aux infox et aux théories du complot. La dernière en date affirme que l’effondrement de l’État serait lié à la présence d’iridium dans le sous-sol haïtien. Un métal qui attirerait les puissances étrangères. Depuis l’annonce de la démission du Premier ministre, Ariel Henry, des centaines d’internautes affirment sur les réseaux sociaux que les États-Unis, l’ONU ou encore Israël, entretiendraient volontairement le chaos en Haïti pour piller son sous-sol. Le métal tant convoité serait l’iridium, un dérivé du platine de couleur argenté, notamment utilisé dans l'industrie automobile, aéronautique et spatiale pour sa forte résistance à la corrosion. « », avance ainsi un internaute. Cette rumeur mensongère repose sur un extrait d’interview d’une activiste haïtienne, interrogée sur la chaîne YouTube américaine, ROCKNEWMANSHOW https://www.youtube.com/@RockNewmanShow. Une recherche par image inversée permet de retrouver l’extrait original publié sur la plateforme de vidéo en ligne le 16 novembre 2017. Dans cet extrait, vu des centaines de milliers de fois en quelques jours, elle affirme, en substance, qu'Haïti « », qu’une tonne de ce métal « », et que « » et la chute de la dictature Duvalier. UNE CURIOSITÉ GÉOLOGIQUE Vérification faîte, le sous-sol haïtien est loin d’être riche en iridium. C’est ce que conclut UN RAPPORT DU BUREAU DES MINES ET DE L’ÉNERGIE HAÏTIEN https://www.bme.gouv.ht/media/upload/doc/publications/Geominergie_2_Iridium_vf.pdf, daté de décembre 2022. L’un de ces auteurs, que nous avons contacté, insiste sur la conclusion de l’étude qui indique que la présence d’iridium en Haïti doit être considérée « ». En effet, la quantité découverte dans une mince couche d’argile localisée près de Beloc, est si faible QU’ELLE REND IMPOSSIBLE SON EXPLOITATION https://ayibopost.com/les-revelations-du-bureau-des-mines-et-de-lenergie-sur-le-potentiel-minier-dhaiti/. « », explique Didier Julienne, expert du marché des métaux. L’IRIDIUM, UN MARCHÉ RÉDUIT Contrairement à ce qui est affirmé dans cette vidéo, une tonne d’iridium ne vaut pas 45 milliards de dollars. Cette semaine, la tonne était estimée entre 140 et 150 millions d’euros. En 2017, au moment de l’interview, la tonne était jusqu’à cinq fois moins chère qu’aujourd’hui. Vincent Donnen, expert dans le marché métaux, rappelle que « ». Un marché réduit, largement dominé par l’Afrique du Sud qui produit à elle seule plus de 80 % de l’iridium mondiale, loin devant le Zimbabwe, le Canada et la Russie. DÉSINFORMER POUR DÉSTABILISER Ce n’est pas la première fois que des fausses informations circulent autour du sous-sol haïtien. Le narratif d’un chaos organisé par des puissances étrangères pour piller les ressources minières d’Haïti revient à chaque crise. Cette interview d’une activiste haïtienne en 2017, repartagée sur les réseaux sociaux depuis la démission d’Ariel Henry, en est un parfait exemple. Si cette fois-ci, c’est l’iridium qui est ciblé, les infox concernent aussi l’or et le pétrole.


Jusqu’à -47° en Chine, -43° aux États-Unis, -40° en Suède. Plusieurs pays ont été touchés par d’intenses vagues de froid ces dernières semaines. Les images impressionnantes de maisons gelées et de villes paralysées par la neige et le blizzard ont fait le tour du monde. Sur les réseaux sociaux, ces images sont activement relayées et détournées par les climatosceptiques, avec l’objectif de faire croire, à tort, que le réchauffement climatique n’existe pas. « », « » Voici le genre de commentaires qui accompagnent les images de tempête de neige et de blizzard venues des quatre coins du monde. Les climatosceptiques sont convaincus que ces vagues de froid isolées seraient la preuve que le climat ne se réchauffe pas. Un discours mensonger qui repose sur la confusion volontaire entre la météorologie et la climatologie. La confusion entre ces deux sciences est un des piliers du discours climatosceptique. « », explique Françoise Vimeux, climatologue à l’Institut de recherche pour le développement. « » Un pic de température localisé, négatif comme positif, ne dit donc rien de l'évolution du climat. LA RHÉTORIQUE DU CHERRY PICKING Cette rhétorique, mise en place par les climatosceptiques, porte un nom. C’est ce que l’on appelle le , autrement dit la sélection des plus belles cerises. « cherry picking », précise Davide Faranda, climatologue au Centre national de la recherche scientifique (CNRS). Cette stratégie mise en place par les climatosceptiques « », ajoute l’expert. « » À ce jour, 2023 est l’année la plus chaude jamais enregistrée. Sur ce point, 2024 COMMENCE TOUT AUSSI MAL https://www.rfi.fr/fr/environnement/20240208-climat-pour-la-première-fois-la-planète-dépasse-1-5-degré-de-réchauffement-pendant-12-mois-consécutifs. VAGUES DE FROID ET RÉCHAUFFEMENT CLIMATIQUE Contrairement à ce qu’affirment des internautes, les vagues de froid ne sont pas incompatibles avec le réchauffement climatique. Les épisodes de froid « », pointe Françoise Vimeux. Le réchauffement climatique va aussi les rendre moins intenses. C’est notamment ce qu’il s’est passé en janvier dernier dans les pays nordiques malgré une météo extrême, selon Davide Faranda. « » Le réchauffement climatique ne va pas non plus faire disparaître l’hiver. « », explique Françoise Vimeux. LE SUCCÈS DE LA DÉSINFORMATION CLIMATIQUE Le discours climatosceptique est très populaire aujourd’hui sur les réseaux sociaux. Les publications trompeuses, souvent spectaculaires, cumulent parfois des millions de vues que certaines plateformes comme YouTube, TikTok ou X (ex-Twitter) permettent de monétiser. Certains influenceurs font donc du climatodénialisme leur fonds de commerce. Le plus inquiétant, pointent les experts, c'est que CE DISCOURS CONTINUE DE GAGNER DU TERRAIN https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox/20240216-face-au-réchauffement-climatique-le-succès-grandissant-du-climato-dénialisme. Un sondage de l’institut Ipsos réalisé en 2023 montre que 43% des Français pense qu’il n’y a pas de réchauffement climatique, ou qu’il n’est pas lié à l’activité humaine.


En Russie, les funérailles d’Alexeï Navalny se sont déroulées ce vendredi 1er mars à Moscou. Des centaines de personnes se sont rassemblées pour lui rendre hommage. Deux semaines après la mort de l’opposant russe en prison, son épouse, Ioulia Navalnaïa est devenue le nouveau visage de l’opposition à Vladimir Poutine. En réponse, une vaste campagne de désinformation a été lancée à son encontre avec l’objectif de faire croire que Ioulia Navalnaïa entretient des relations avec d’autres hommes. Le 16 février 2024, quelques heures seulement après l’annonce de la mort d’Alexeï Navalny dans la colonie de l'Arctique où il purgeait sa peine de prison, une photo est rapidement devenue virale sur les réseaux sociaux. On y voit Ioulia Navalnaïa tout sourire, sur une plage, prenant la pose avec un homme. Les commentaires, ouvertement misogynes, assurent que cette photo est récente et qu’elle montrerait la veuve de Navalny en train de passer du bon temps avec son nouveau compagnon, juste après la mort de son mari. « », commente un internaute. Sa tristesse « », ajoute un autre. Sauf qu’en réalité, cette photo est sortie de son contexte. Une recherche d'image inversée nous a permis de retrouver le cliché original. Il a été PUBLIÉ SUR INSTAGRAM IL Y A PLUS DE DEUX ANS https://www.instagram.com/p/CSr3rJeghfF/, le 17 août 2021 par Evgueni Tchitchvarkine. C’est lui qui pose au côté de Ioulia Navalnaïa sur une plage en Lettonie. Ce milliardaire russe en exil est un fervent opposant à Vladimir Poutine et un ami de longue date d’Alexeï Navalny. DÉSINFORMER POUR SALIR UNE RÉPUTATION Une autre photo détournée est massivement partagée pour salir la réputation de la veuve de Navalny. Sur celle-ci, elle apparaît de dos en train d’enlacer un homme. Encore une fois, il s’agit d’Evgueni Tchitchvarkine. Vérification faite, cette image vue plus d’un million de fois, a été manipulée. La vraie photo, PUBLIÉE PAR L’AGENCE FRANCE-PRESSE https://factuel.afp.com/doc.afp.com.34JM2JA, montre Ioulia Navalnaïa en train d’embrasser Alexeï Navalny à sa sortie de prison en 2013. Quelqu’un a donc remplacé Alexeï Navalny par Evgueni Tchitchvarkine pour tromper les internautes. Cette campagne de désinformation s’appuie aussi sur de fausses vidéos. La plus partagée usurpe l’identité de l’Association américaine de psychologie. Les images prétendent que le célèbre psychologue américain, Paul Ekman, aurait analysé le comportement de Ioulia Navalnaïa. L’auteur du livre « » aurait déclaré : « » Cette déclaration a été totalement inventée puisque cette vidéo n’a pas été publiée par l'Association américaine de psychologie, ni par Paul Ekman. Dans le même registre, un clip affirme que Ioulia Navalnaïa aurait avorté au mois de janvier en Allemagne. Mais là encore, c’est une infox. L’OMBRE RUSSE DERRIÈRE CETTE CAMPAGNE Toutes ces infox visant Ioulia Navalnaïa sont partagées par des comptes et des sites internet identifiés par RFI et par des experts comme LES RELAIS NUMÉRIQUES DE LA PROPAGANDE RUSSE https://www.wired.com/story/kremlin-backed-accounts-trying-to-destroy-yulia-navalnaya/. Certains sont très populaires comme le canal Telegram du présentateur russe Vladimir Soloviev, d’autres agissent masqués à l’aide de faux comptes. Leur objectif, c’est de ternir la réputation de Ioulia Navalnaïa dans l’opinion russe et occidentale, alors qu’elle gagne en popularité. Une stratégie en contradiction avec le discours pro-russe qui affirme que Ioulia Navalnaïa et son mari n’ont jamais été une menace pour le pouvoir en place.


Près de deux ans après le début de l’invasion russe en Ukraine, la situation s’enlise sur le front. Pénurie de munitions, manque de personnel, affaiblissement de l’aide occidentale : les dossiers sur la table du nouveau chef de l’armée ukrainienne sont nombreux. Oleksandr Syrsky a remplacé il y a deux semaines le populaire général Valery Zaluzhny. Une nomination ciblée par la propagande pro-russe à coups de fausses couvertures de journaux. Oleksandr Syrsky a-t-il été caricaturé à la Une de l’hebdomadaire satirique français le 14 février 2024 ? C’est ce que prétendent, image à l'appui, des centaines d’internautes russophones sur les réseaux sociaux ces derniers jours. On y voit le nouveau chef de l’armée ukrainienne, Oleksandr Syrsky, désabusé, assis dans un cratère rempli de sang et de soldats ukrainiens démembrés. La scène se passe à Selidove, une ville proche de Donetsk, bombardée dans la nuit du mardi au mercredi 13 février 2024 par les Russes. Le titre, à l’écriture sanguinolente, critique ouvertement Oleksandr Syrsky le présentant comme le « ». En réalité, l’hebdomadaire satirique français n’a jamais publié cette caricature du nouvel homme fort de l’armée ukrainienne. Pour s’en rendre compte, il suffit d’aller sur le site internet de et de chercher le journal paru en kiosque le 14 février 2024. ON DÉCOUVRE ALORS LA COUVERTURE ORIGINALE https://charliehebdo.fr/editions/1647/, dédiée non pas au chef de l’armée ukrainienne, mais à la suppression du droit du sol à Mayotte. Cette Une a donc été manipulée. La charte graphique, le prix et la signature du dessinateur ont été fidèlement reproduits. Le numéro du journal et l’orientation du code barre en bas de la couverture ne sont, eux, pas corrects. Malgré ça, cette couverture manipulée, REPÉRÉE PAR GWARA MEDIA https://gwaramedia.com/obkladynka-charlie-hebdo-syrskyy-sered-zahyblykh-pid-selydovym/, a été massivement relayée sur des comptes Telegram pro-russe, sur Vkontakte (l’équivalent de Facebook en Russie) et aussi sur TikTok. On la retrouve aussi sur zp-news.ru, un site internet dédié à la ville de Zaporijjia, identifié par le service français de détection des ingérences numériques étrangères, Viginum, comme un relais de propagande DU DISPOSITIF D’INFLUENCE PORTAL KOMBAT https://www.rfi.fr/fr/europe/20240212-portal-kombat-un-nouveau-réseau-relayant-la-propagande-russe. VALERY ZALUZHNY DANS LE VISEUR Oleksandr Syrsky n’est pas la seule victime de cette campagne de désinformation. Son prédécesseur, Valery Zaluzhny, est lui aussi pris pour cible. Cette fois, c’est le magazine satirique allemand qui a été détourné. La fausse Une est une bande dessinée intitulée « ». On y voit le général Zaluzhny dormir sur des cadavres ukrainiens, se laver avec un morceau de bras, ou encore payer ses courses avec l’argent d’un soldat mort. Mais là encore, vérification faite, cette caricature n’a aucun rapport avec la couverture authentique du journal, qui ne fait même pas référence à l'Ukraine. Tout comme pour , la couverture de EST DISPONIBLE SUR LEUR SITE INTERNET https://www.titanic-magazin.de/postkarten/kategorie/titanic-titel/. MANIPULER L’OPINION RUSSE ET OCCIDENTALE L’objectif premier de la diffusion de ces infox est de faire croire au peuple russe que la presse occidentale critique l’Ukraine et son commandement militaire. C’est pourquoi ces fausses couvertures de et de ont d’abord été partagées en russe, par des comptes de propagande très suivis sur Telegram, comme celui de la journaliste Olesya Loseva. On les retrouve ensuite publiés sur les réseaux sociaux, dans différentes langues, ce qui permet de toucher une audience plus large et de tromper aussi l’opinion occidentale. Ce n’est d’ailleurs pas la première fois que la propagande pro-russe fabrique des fausses couvertures de journaux. Ce genre de faux circulent beaucoup depuis le début de l’invasion de l’Ukraine. RFI en a identifié plus d’une dizaine en ligne ces derniers mois. Ce sont d’ailleurs souvent les mêmes journaux qui sont détournés : le français , le turc , l’allemand ou encore l’espagnol . Le but est toujours de faire croire que les Occidentaux ne veulent plus soutenir l’Ukraine, à coups d’infox.


Le président français Emmanuel Macron devait recevoir ce vendredi son homologue ukrainien Volodymyr Zelensky. À Paris, les deux hommes devaient signer un accord bilatéral de sécurité. À l’origine, Emmanuel Macron devait se rendre à Kiev. Une visite annulée au dernier moment, ce qui n’a pas manqué d’alimenter la propagande pro-russe avec la diffusion d’une vidéo, censée provenir de la chaine France 24 évoquant une tentative d'attentat de la part de l'Ukraine contre le président français. La vidéo apparait le 13 février 2024 sur des chaines Telegram pro-russe, mais quelques jours avant certains comptes affiliés à Moscou bruissaient déjà de spéculations sur l’annulation de cette visite. Ils cherchaient à accréditer l’idée selon laquelle Emmanuel Macron n’irait pas à Kiev car il était en désaccord avec le pouvoir ukrainien et qu'il pourrait être victime d’un assassinat. Certains sites de propagande comme NEWS.RU https://news.ru/world/ego-planirovali-ubit-pochemu-makron-vnezapno-otkazalsya-ehat-na-ukrainu/ annonçaient dès le 12 février : « ». APPARITION D’UN DEEP FAKE De fait, les publications vont rapidement s’enchaîner. Le 13 février sur Telegram, puis le 14 sur X, anciennement Twitter, LA CELLULE INFO-VÉRIF DE RFI https://www.rfi.fr/fr/tag/info-vérif/ prévient la direction de l'information de FMM : la vidéo d’un « faux journal » de France 24 circule. Sur la vidéo on y entend notre confrère Julien Fanciulli affirmer que : « ». On nous explique ensuite que : Joint par RFI, notre confrère assure « ». Nous sommes effectivement confrontés à un deep fake : l’utilisation d’un outil d'intelligence artificielle permettant de truquer un discours, en faisant dire à quelqu’un des mots qu’il n’a jamais prononcé en réalité. UN TRUCAGE RELATIVEMENT BIEN FICELÉ Quelques indices, permettent de déceler la manipulation. Ceci étant, l’auteur de la vidéo, a pris soin de filmer un écran, comme s’il regardait la télévision, ce qui explique aussi que la qualité d’écoute n’est pas très bonne. En fait cela permet de masquer une voix un peu synthétique, et une intonation assez monotone comme le souligne les Observateurs de France 24 https://observers.france24.com/fr/émissions/les-observateurs/20240214-une-tentative-d-assassinat-contre-emmanuel-macron-en-ukraine-attention-cette-vidéo-est-truquée. Le style ne colle pas avec l’écriture journalistique et si on y regarde plus près les lèvres ne suivent pas toujours les mots prononcés. Les « synthés », c’est-à-dire les incrustations de textes et les « bandeaux titres » ont été modifiés. Enfin une traduction en russe apparait au bas de l’écran. UNE VIDÉO AMPLIFIÉE PAR LA PROPAGANDE RUSSE Après les signaux annonciateurs sur les réseaux et l’amorce de la tentative de désinformation avec la vidéo, vient le temps de l’exploitation à des fins de propagande. Dès le 14 février, les propos attribués au journaliste de France 24, sont repris sur VKontakt l’équivalent de Facebook en Russe, ou encore le compte Twitter attribué à Dmitri Medvedev qui les commente abondamment. On retrouve la vidéo, sur le fameux site pravda.fr, un site bien connu puisqu’il a été épinglé en début de semaine par l’organisme interministériel français Viginum, (qui lutte contre les ingérences numériques étrangères). Viginum parle même d'écosystème Pravda : un réseau de sites, qui cible directement les pays occidentaux qui soutiennent l'Ukraine. Le 15 février, pravda.fr se livre à une explication de texte, en se basant sur la fausse information portée par le deep fake du journal de France 24. On peut lire sur leur site « ». La DRG : les unités clandestines russes, en charge des sabotages chez l’ennemi. Tout cela est faux, mais la vidéo truquée a quand même été partagée sur des chaînes Telegram pro-russe, a plus de 200 000 abonnés…


Tirs de missiles, menace de détournement : les attaques contre des navires en mer Rouge se poursuivent sur fond de guerre entre Israël et le Hamas. Ce mardi 6 février, les rebelles Houthis ont ciblé deux nouveaux navires marchands. En réponse, Washington a annoncé avoir mené de nouvelles frappes en territoire Houthis. Sur les réseaux sociaux, beaucoup d’images circulent autour de ces attaques. Certaines, issues d'un jeu vidéo, prétendent que des navires militaires américains ont été détruits. Des navires de la marine américaine frappés de plein fouet par plusieurs missiles antinavire en pleine nuit, à proximité de la côte. Ces images, impressionnantes, cumulent plusieurs centaines de milliers de vues sur les réseaux sociaux ces derniers jours. Les internautes qui partagent cette vidéo d’une vingtaine de secondes affirment que « ». Sauf qu’en réalité, ces images ne sont pas réelles. Malgré la mauvaise qualité de la vidéo, plusieurs éléments visuels et sonores montrent qu’il s’agit d’images de synthèse. D’abord, les cinq navires sont immobiles et très rapprochés, un positionnement qui ne correspond pas à une tactique employée en cas de conflit de ce genre. De plus, les explosions ne provoquent pas de flammes. Elles sont représentées par un éclat lumineux, très court et provoquent toujours le même bruit. L’expert en armement que nous avons contacté remarque également que la lumière due à l’explosion du missile n'apparaît pas du bon côté du navire touché. Il ajoute que l’effet de souffle, ou de « blast », est trop tardif après l’impact mais note que les trajectoires des missiles volant au ras de l’eau sont réalistes pour des missions anti-navires. Toutefois, le constat est sans appel : ces images ont été générées par ordinateur. DES IMAGES DE JEU VIDÉO Grâce à une recherche en plusieurs langues, avec les mots clés « », « », « », et le nom de plusieurs jeux vidéo, LA CELLULE INFO VÉRIF DE RFI https://www.rfi.fr/fr/tag/info-vérif/ est parvenue à retrouver la vidéo originale. Elle dure une vingtaine de minutes et a été publiée sur YouTube le 14 janvier 2024. En légende, une mention indique : « ». Un jeu vidéo de simulation militaire ultra-réaliste, souvent détourné pour partager de fausses images en temps de guerre. La chaîne qui la publie, @Arma3USMC, se présente comme une page de « ». Chaque jour, elle publie des vidéos simulant l’évolution de la guerre au Moyen-Orient ou en Ukraine, en utilisant des images du jeu Arma 3. Cette pratique, regroupée sous le terme « milsim » pour , attire l’attention de millions d’internautes. Certains y voient l’occasion de détourner ces contenus à des fins de propagande. Alors comment repérer ces images issues de jeu vidéo ? Nos confrères des Observateurs de France 24 avaient posé la question à Pavel Křižka, représentant de la société Bohemia Interactive qui édite Arma 3. DIFFUSION DANS LES MÉDIAS Ces images, utilisées à tort pour illustrer les tensions en mer Rouge, ont été diffusées par certains médias internationaux. C’est notamment le cas du , de plusieurs médias brésiliens et d’agences de presse du monde arabe. Ces erreurs donnent du crédit aux comptes de propagande pro-Houthis qui ont massivement relayé ces images sur les réseaux sociaux et les plateformes de vidéo, les présentant comme un véritable trophée de guerre. Mais en réalité, aucun navire militaire n’a été touché dans le golfe d’Aden. Toutes les attaques ont été déjouées par les systèmes anti-missiles. La cinquantaine d’incidents enregistrés jusqu’ici concerne des navires commerciaux. C’est la raison pour laquelle de nombreux armateurs choisissent de dérouter leur flotte. Cette infox vise donc à glorifier l’action des rebelles Houthis et à alimenter les tensions dans une région déjà hautement inflammable.


Au Moyen-Orient, la tension ne redescend pas entre les États-Unis, l’Iran et ses alliés. Après la mort de trois soldats américains dans une attaque de drone attribuée à des groupes pro-Iran, un destroyer américain a abattu trois drones iraniens et un missile balistique dans le golfe d'Aden ce mercredi 31 janvier. Sur les réseaux sociaux, cette situation suscite beaucoup de désinformation, notamment via l'intelligence artificielle, avec comme cible prioritaire le président américain Joe Biden. Joe Biden a-t-il appelé à la mobilisation générale pour envoyer des Américains se battre en Ukraine et en Iran ? C’est ce qu’affirment à tort, plusieurs internautes sur les réseaux sociaux ces derniers jours. Pour preuve, ils s’appuient sur une déclaration filmée du président américain. La vidéo dure quarante-quatre secondes. On croit y entendre Joe Biden invoquer LE SELECTIVE SERVICE ACT https://www.sss.gov/history-and-records/timeline/, une mesure spéciale destinée à grossir les rangs de l’armée américaine en cas d’urgence nationale : « » En réalité, Joe Biden n’a pas prononcé ce discours, ni annoncé la conscription. Cette vidéo est un deep fake, une fabrication numérique. Plusieurs éléments sonores et visuels permettent de s’en rendre compte. À l’image, le mouvement des lèvres et les expressions faciales de Joe Biden ne sont pas raccords avec ce qu’il dit. Côté son, sa voix est relativement bien faite, mais l’enregistrement est de très mauvaise qualité. Une recherche par image inversée permet enfin de retrouver le discours original qui a servi à la manipulation. Un discours sur la réduction des coûts de l’insuline diffusé sur LA CHAÎNE YOUTUBE DE LA MAISON BLANCHE EN DÉCEMBRE 2021 https://www.youtube.com/watch?v=GJT_04kyv5I. DEEP FAKE DÉTOURNÉ Ce n’est pas la première fois que ce deep fake circule sur la toile. En octobre 2023, au lendemain de l’attaque terroriste du Hamas, cette même infox était apparue en ligne. NOS CONFRÈRES DE REUTERS L'AVAIENT ALORS DÉBUNKÉE https://www.reuters.com/fact-check/video-joe-biden-calling-military-draft-was-created-with-ai-2023-10-19/. Malgré ça, ce deep fake a fait son retour dans une version légèrement modifiée puisqu'un court extrait de Joe Biden parlant de l’Iran a été ajouté grossièrement entre 0:08 et 0:10. À l’origine, ce deep fake a été créé par les équipes du média américain The Post Millennial en février 2023 pour montrer les pouvoirs de l’intelligence artificielle. L’IA COMME OUTIL DE DÉSINFORMATION EN CONTEXTE ÉLECTORAL L’intelligence artificielle a également été utilisée pour présenter, à tort, Joe Biden en tenue camouflage. Cette semaine, une série de clichés du président américain en uniforme militaire dans un centre de commandement est apparue en ligne. À première vue, ces photos semblent réelles. « r », commente un internaute. Pourtant, en analysant certains détails et en passant ces clichés au crible de plusieurs détecteurs (AI OR NOT https://www.aiornot.com/, HIVE MODERATION https://hivemoderation.com/ai-generated-content-detection, ISITAI https://isitai.com/ai-image-detector/), le constat est sans appel. Ces images sont fausses. Elles ont, elles aussi, été générées par l’intelligence artificielle. Dans un contexte de campagne électorale, ces infox sont diffusées dans le but de présenter Joe Biden comme le candidat va-t-en-guerre, responsable de plusieurs conflits. Avec lui au pouvoir, « », affirment certains de ses opposants qui n'hésitent pas à manipuler des images pour servir leur narratif. À lire aussiLe deep fake, outil de désinformation sur les réseaux sociaux https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox/20230203-le-deep-fake-outil-de-désinformation-sur-les-réseaux-sociaux


Le Parlement russe a adopté mercredi 24 janvier une résolution dénonçant la présence de « » en Ukraine. Ce vote de la Douma fait suite à l’annonce par la Russie d’un bombardement sur Kharkiv qui aurait tué, selon le Kremlin, des dizaines de combattants français dans la nuit de mardi à mercredi 17 janvier. En réalité, la mort annoncée de ces Français en Ukraine s’inscrit dans une vaste attaque informationnelle. Tout commence le mercredi 17 janvier lorsque le ministère russe de la Défense affirme avoir frappé un immeuble de Kharkiv, dans le nord-est de l’Ukraine, utilisé comme « ». Moscou évoque alors l’élimination de 60 combattants et 20 blessés. L’ambassadeur de France en Russie, Pierre Lévy, est convoqué dans la foulée par le ministère russe des Affaires étrangères. De son côté, Paris dément formellement l’information. Quelques jours plus tard, les identités de plusieurs combattants français, présentés comme des mercenaires et qui auraient été tués à Kharkiv, apparaissent sur une chaîne Telegram russophone. Plusieurs listes circulent, dont certaines sont déjà apparues en ligne en 2022. La plus populaire comporte 13 noms, d’hommes âgés entre 24 et 49 ans. Plusieurs médias russes de premier plan, Spoutnik, RT, Ria Novosti, la relaient, en guise de preuve de l’élimination de combattants français. Sur les réseaux sociaux, des comptes identifiés comme des vecteurs habituels de la propagande pro-russe, participent eux aussi à donner de la visibilité à cette liste. Pour savoir ce qu’il s’est réellement passé, la cellule Info Vérif de RFI est entrée en contact avec plusieurs membres de cette liste. Deux d’entre eux ont accepté de témoigner. C’est le cas d’Alexis Drion, deuxième nom sur la liste. Pako, de son nom de code, est parti en Ukraine en avril 2023 pour intégrer la compagnie Charly dans le 2e bataillon de la Légion internationale ukrainienne. Son groupe a été déployé sur le front est, dans la région de Donetsk, plus exactement dans la région de Liman et Yampil. « » Un autre nom figure sur cette liste, celui de Béranger Minaud. Il est, lui aussi, donné pour mort par la propagande russe. « (le jour du bombardement sur Kharkiv, NDLR) » Tous les combattants français en Ukraine le répètent, il n’y a aucune preuve que des Français ont été tués ce jour-là. VOLONTAIRES ET PAS MERCENAIRES Contrairement à ce qu'affirme Moscou, les combattants français en Ukraine ne sont pas des mercenaires mais des volontaires. LA DISTINCTION EST FIXÉE PAR LES CONVENTIONS DE GENÈVE https://www.ohchr.org/fr/special-procedures/wg-mercenaries/international-standards-related-mercenaries. Le texte précise qu’un mercenaire est un individu engagé dans les combats mais « ». Or la Légion internationale ukrainienne, où s'engagent les volontaires du monde entier, est une branche de l’armée régulière. Légalement, rien ne distingue Béranger Minaud d’un militaire ukrainien. « » L’un des autres critères qui définit un mercenaire, c’est « (...) ». Ce qui n’est pas le cas des volontaires de la Légion internationale qui touchent exactement le même salaire que les soldats ukrainiens, décrit Alexis Drion. « » Alexis Drion affirme que les volontaires ne s'engagent pas pour l’argent. « » LES FRANÇAIS MINORITAIRES Cette fausse liste montre la volonté de la Russie d'épingler la présence de combattants français côté ukrainien. Pourtant, les volontaires français se font plutôt rares sur le front, selon Alexis Drion. « (unité de renseignement, NDLR) » Parmi les quelque 20 000 volontaires qui ont intégré la Légion internationale ukrainienne, « , confirme Béranger Minaud. » À noter d'ailleurs que des citoyens français se sont aussi engagés côté russe. LE TON MONTE ENTRE PARIS ET MOSCOU Cette opération de désinformation russe intervient dans un moment critique des relations entre Paris et Moscou. Quelques heures avant que la Russie n’annonce, à tort, la mort de « », LA FRANCE OFFICIALISAIT LA LIVRAISON DE 40 MISSILES SCALP https://www.rfi.fr/fr/europe/20240119-aide-militaire-européenne-à-l-ukraine-une-coalition-artillerie-et-des-canons-français-caesar-pour-soutenir-l-effort-de-guerre à l’Ukraine. Un timing qui a donc des airs de représailles de la part du Kremlin. Ciblée par cette attaque informationnelle, Paris n’est pas resté sans réponse. « », a communiqué le ministère français des Armées ce vendredi 26 janvier.


Des centaines de tracteurs en plein cœur de Berlin. Les images de la mobilisation massive des agriculteurs allemands ont fait le tour du monde. Les manifestants s’opposent à la remise en cause de subventions décidées en décembre par le gouvernement d‘Olaf Scholz. Cette mobilisation, lancée début janvier, agite toujours les réseaux sociaux ces derniers jours. Pour cause, le mouvement de colère a été récupéré par les sphères complotistes et la propagande russe. L’analyse des hashtags utilisés pour évoquer cette mobilisation sur les réseaux sociaux le montre : les influenceurs adeptes des théories complotistes ont fait de cette mobilisation leur cheval de bataille. Les nombreuses publications qu’ils partagent autour de ce mouvement véhiculent souvent le même narratif, celui d’un soulèvement massif, volontairement invisibilisé dans les médias occidentaux. Une accusation fallacieuse puisque de nombreux médias, DONT RFI https://www.rfi.fr/fr/tag/allemagne/, ont largement couvert cette mobilisation ces derniers jours. Alors pourquoi cette communauté adepte des théories complotistes, soutient-elle les agriculteurs allemands ? Cela s’explique par leur volonté de récupérer cette mobilisation et d’en faire un symbole de résistance antisystème, comme ont pu l’être le mouvement contre l’obligation vaccinale du convoi de la liberté, ou encore les gilets jaunes. D’après eux, l’Allemagne ne fait pas face à un mouvement de protestation des agriculteurs mais à une véritable révolte du peuple contre des élites corrompues par la mondialisation. LE FORUM DE DAVOS PRIS POUR CIBLE Ce discours est depuis longtemps au cœur de la pensée complotiste. Il a été particulièrement ravivé ces derniers jours par la tenue du Forum économique mondial de Davos du 15 au 19 janvier 2024. Chaque année, CET ÉVÉNEMENT CRISTALLISE LES THÉORIES COMPLOTISTES https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox/20230120-le-bruit-de-la-conspiration-autour-du-forum-de-davos. Certains voient en ce forum un sanctuaire où les dirigeants et les personnalités les plus puissantes se réunissent pour établir un supposé plan d’asservissement des populations. À en croire plusieurs internautes, Klaus Schwab, le fondateur du forum de Davos et BOUC ÉMISSAIRE DES THÉORIES COMPLOTISTES https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox-la-chronique/20230120-klaus-schwab-et-davos-boucs-émissaires-des-théories-complotistes, se serait exprimé sur la protestation des agriculteurs allemands. Il aurait déclaré : « ». Vérification faite, Klaus Schwab n’a jamais tenu ces propos qui lui sont attribués. Nos recherches en allemand, en anglais et en français n’ont rien donné. Aucun document officiel du Forum de Davos, ni aucune interview dans la presse ne rapporte ces propos. Il s’agit donc d’une manipulation. LA PROPAGANDE RUSSE S'EN MÊLE Dans la lignée des milieux complotistes, la propagande russe s’est elle aussi emparée de la mobilisation des agriculteurs allemands. Une photo est ainsi rapidement devenue populaire sur plusieurs chaînes Telegram russophones. On y voit un tracteur portant une pancarte sur laquelle est inscrit en allemand « ». Un cliché présenté comme la preuve d’une certaine popularité du président russe et d’un essoufflement du modèle occidental. Mais en réalité, cette photo a été manipulée. Une recherche par image inversée nous a permis de retrouver le cliché original. Il a été publié dans plusieurs médias allemands il y a plus de quatre ans pour illustrer une manifestation d’agriculteurs en 2019. En zoomant sur la pancarte originale, on remarque aussi que le slogan ne fait pas référence à Vladimir Poutine. Il est écrit « ». La photo a donc été modifiée. Cette technique de désinformation est régulièrement utilisée par la propagande pro-russe lors des manifestations sur le sol européen.


Au Burkina Faso, une rumeur agite particulièrement les réseaux sociaux ces derniers jours. Certains affirment, vidéo à l’appui, qu’un important gisement de pétrole aurait été découvert sur le territoire. Cette nouvelle suscite énormément de réactions et beaucoup d’interrogations dans un pays qui n’est pas connu pour ses réserves naturelles de pétrole. Des soupçons légitimes puisque vérification faite, cette découverte est une infox. En quelques jours seulement, les images ont fait le tour des réseaux sociaux. Une pelleteuse creuse une tranchée et découvre par hasard un épais liquide noir qui s’échappe de plusieurs endroits du sol. Cette vidéo, devenue virale, est la preuve pour de nombreux internautes qu’un important gisement de pétrole vient d’être découvert au Burkina, à quelques mètres sous terre. En réalité, ces images n'ont pas été filmées au pays des hommes intègres. Plusieurs recherches d’image inversée nous ont permis de retrouver la vidéo originale. Elle apparaît pour la première fois en ligne sur la page Facebook d’une société de plomberie américaine le 23 décembre 2023. La scène se déroule dans l'État du Minnesota, ce qui explique les quelques mots en anglais audibles dans cette vidéo, vue par plus de 10 millions de personnes en quelques jours. Non seulement, les images ont été tournées aux États-Unis et non au Burkina Faso, mais en outre cette vidéo ne montre pas la découverte de pétrole. Au plus grand regret des ouvriers américains qui ironisent en légende « ! ». Cette vidéo montre en effet une de leurs travaux de remplacement d’un égout bouché par des racines d’arbres. Nous avons également fait analyser ces images par un ingénieur spécialiste des infrastructures pétrolières. Son constat est sans appel : les images ne montre pas une résurgence naturelle de pétrole. Dans la vidéo, les flaques noires apparaissent à trois endroits différents, sur une même ligne et sous forme de petits geysers. S'il s'agissait d'une remontée naturelle, « », explique l’expert. Il conclut qu’il « ». AMPLIFICATION ARTIFICIELLE ET RÉCUPÉRATION POLITIQUE D’après nos recherches, la circulation de cette fausse information a été amplifiée artificiellement à des fins de récupération politique. La vidéo a notamment été massivement partagée par des comptes de propagande à la gloire du leader burkinabé Ibrahim Traoré. Sur TikTok, ces profils diffusent des montages mixant les images de cette fausse découverte de pétrole et des extraits de discours du chef de la junte. D’autres internautes ajoutent également des voix artificielles en surimpression. Une manière peu coûteuse et anonyme permettant de maximiser l’audience, procédé très utilisée par certains désinformateurs. L’un de ces montages cumule par exemple à lui seul plus de 4 millions de vues, rien que sur Tik Tok. Ce qui n’empêche pas de nombreux internautes burkinabè de pointer en commentaires les incohérences de ces vidéos. DISCOURS ANTI-OCCIDENTAL Certains comptes instrumentalisent également cette infox pour s’attaquer aux Occidentaux et à la France : « », « », « ». De nombreux messages de ce genre accompagnent cette vidéo détournée. Quels que soient les montages, les mêmes éléments de langage sont utilisés. Un narratif anti-occidental véhiculé massivement par des influenceurs et de nombreux faux comptes sur les réseaux sociaux.


En République démocratique du Congo (RDC), l’opposition maintient la pression après la réélection annoncée de Félix Tshisekedi, dimanche 31 décembre. Les chiffres provisoires de la commission électorale le créditent de 73% des voix, loin devant ses concurrents qui dénoncent des irrégularités et contestent sa victoire. Aujourd’hui, ce scrutin agite encore les réseaux sociaux en RDC. Un contexte tendu, particulièrement propice aux fausses informations. Vidéos sorties de leur contexte, images manipulées, citations fabriquées, plusieurs jours après le scrutin, des auditeurs continuent à nous faire remonter quotidiennement de nouvelles fausses informations autour de cette élection. Certaines sont devenues très populaires sur les réseaux sociaux et se répandent sur les groupes WhatsApp. Parmi les derniers exemples en date figure une vidéo dans laquelle apparaît Joseph Kabila. Les internautes qui la partagent prétendent qu’elle montre l’ancien président en train de féliciter Félix Tshisekedi pour sa réélection. Cet extrait d’une trentaine de secondes, estampillé avec le logo de la télévision nationale congolaise, a été vu plusieurs dizaines de milliers de fois sur X, Facebook ou encore TikTok. En réalité, cette vidéo n’a rien à voir avec la réélection de Félix Tshisekedi annoncée ce dimanche 31 décembre. Grâce à une recherche d’image inversée, on sait que cette déclaration de Joseph Kabila est sortie de son contexte. LA VIDÉO ORIGINALE A ÉTÉ PUBLIÉE PAR L’AGENCE FRANCE-PRESSE https://www.youtube.com/watch?v=OBaZXIhYTas le 24 janvier 2019. L’ancien président adressait alors ses félicitations à Félix Tshisekedi pour son élection en 2019 et non pour sa réélection. Au moment de la rédaction de cet article, Joseph Kabila ne s’est pas exprimé personnellement sur cette réélection de Félix Tshisekedi, à l’inverse de son parti. Le FCC, volontairement absent de toutes les listes électorales, A REJETÉ LES RÉSULTATS DEMANDANT LA TENUE D’UN NOUVEAU SCRUTIN https://www.rfi.fr/fr/afrique/20240103-rdc-le-parti-de-kabila-demande-un-nouveau-processus-électoral-et-rejette-les-résultats. LES ÉTATS-UNIS ONT-ILS REJETÉ LES ÉLECTIONS ? Autre infox tenace qui circule sur les réseaux sociaux, les États-Unis auraient « ». C’est ce qu’avancent de nombreux internautes, dont plusieurs journalistes congolais ces derniers jours. Selon eux, les États-Unis auraient refusé « ». Vérification faite, aucune communication de la part des autorités américaines ne va dans ce sens. Dans UN COMMUNIQUÉ PUBLIÉ SUR LEUR SITE INTERNET https://cd.usembassy.gov/u-s-embassy-statement-on-announcement-of-provisional-election-results/, l’ambassade des États-Unis en RDC déclare « ». Pour l’heure, elle appelle les autorités à enquêter « », mais ne rejette à aucun moment la réélection de Félix Tshisekedi. FAUSSE CITATION Toujours pour accréditer ce narratif des États-Unis qui auraient « », certains internautes partagent de fausses citations, attribuées à tort, à des médias réputés. « New York Times » Voilà ce qu’affirme par exemple un tweet partagé plus d’une centaine de fois ces derniers jours sur X, anciennement Twitter. Là encore, c’est faux. Nous n’avons retrouvé aucune trace d’une telle déclaration dans les colonnes du quotidien new-yorkais.


Après 84 jours de guerre, l’armée israélienne poursuit son opération militaire dans la bande de Gaza, malgré les appels au cessez-le-feu. Selon le Hamas, plus de 21 000 Palestiniens sont morts depuis le début de l’offensive. Côté israélien, 167 soldats ont perdu la vie. Sur les réseaux sociaux, plusieurs infox circulent autour de la présence de militaires étrangers en soutien à l’armée israélienne. L'une d'elles avance, à tort, qu’un haut-gradé britannique aurait été tué par le Hamas. À en croire les publications de centaines d’internautes sur les réseaux sociaux, un général nommé « » aurait été tué récemment dans la bande de Gaza. Ce commandant d’un certain « » aurait perdu la vie « ». Une fausse information devenue virale ces derniers jours, toujours accompagnée d’une photo vue plusieurs centaines de milliers de fois. On y voit un militaire debout, arme à la main, présenté comme le général britannique « ». En réalité, cette photo est sortie de contexte. Grâce à une recherche d’image inversée, nous avons retrouvé cette même photo publiée dans LA PRESSE ANGLAISE EN FÉVRIER 2021 https://www.dailymail.co.uk/news/article-9225577/Army-general-reveals-drank-2am-horrors-Iraq-war.html. On y apprend alors que l’homme photographié est Patrick Sanders, L’ACTUEL CHEF D'ÉTAT-MAJOR DE L'ARMÉE BRITANNIQUE https://www.gov.uk/government/people/patrick-sanders. Aujourd’hui, absolument rien n’indique que le général de 57 ans s’est rendu dans la bande de Gaza, ni qu’il aurait été tué dans un bombardement du Hamas. HAMBRICK THOMAS, LE GÉNÉRAL FANTÔME Si le chef de l’armée britannique n’a pas été tué, qu’en est-il de ce général « » présenté comme mort par de nombreux internautes ? Vérification faîte, cette affirmation est également fausse. Ce prétendu général britannique n’apparaît nulle part dans nos recherches en ligne, que ce soit dans les registres de l’armée britannique ou bien sur les réseaux sociaux. Certains internautes vont même jusqu’à affirmer que la « ». Des condoléances également introuvables et totalement inventées. Le constat est le même pour ce supposé « » cité par les internautes. Il n’existe aucune trace de ce bataillon dans les forces britanniques, tout comme de la présence de soldats anglais dans la bande de Gaza. Début décembre, le ministère de la Défense britannique à annoncé LA MISE EN PLACE DE VOLS DE SURVEILLANCE https://www.gov.uk/government/news/uk-military-activity-in-the-eastern-mediterranean au-dessus d’Israël et de Gaza, précisant que « ». Cependant, aucun déploiement n’est prévu jusqu’ici sur le terrain. Cette histoire d’un général britannique tué avec son bataillon a donc été entièrement fabriquée. PLUS D'UN MILLION DE VUES D’après nos recherches, cette infox apparaît pour la première fois le 26 décembre 2023 sur une chaîne Telegram palestinienne, dédiée aux informations en Cisjordanie et ouvertement pro-Hamas. Le message, en arabe, se répand ensuite sur X (ex-Twitter), Facebook et Instagram dans différentes langues, avant de se retrouver dans plusieurs médias en ligne. Toutes plateformes confondues, cette fausse information a touché plus d’un million d'internautes en moins de trois jours. Ce type d’infox n’est pas nouveau et a déjà ciblé d’autres conflits. Au début de la guerre en Ukraine par exemple, certains affirmaient qu’un haut gradé américain avait été fait prisonnier par les Russes. Une fois encore, IL S'AGISSAIT D’UNE INFOX https://factuel.afp.com/doc.afp.com.32848RC.


Les États-Unis se préparent à prendre la tête d’une coalition navale destinée à lutter contre les attaques en mer rouge. Pour leur part, les Houthis, soutenus par l'Iran, se disent déterminés à poursuivre leurs attaques. « » assurent les rebelles yéménites, via le réseau « X ». Sur les réseaux sociaux, des post trompeurs et des vidéos de propagande alimentent la montée des tensions. Une vidéo impressionnante circule depuis quelques jours sur les réseaux. Elle a été reprise par de nombreux comptes « X » anciennement Twitter, et sur TikTok. On y voit une trentaine de navires de guerre alignés derrière un porte-avions américain. La tonalité des post est souvent la même, et prend la forme d’une mise en garde qui pourrait se traduire ainsi : « . Cette vidéo qui fait étalage de toute la puissance américaine a été vue près d’un million de fois. Problème : jamais des bâtiments de guerre navigueraient aussi proches, les uns derrières les autres et de manière aussi visible, dans un contexte aussi tendu. Après vérifications, ces images ont été prises durant une parade navale. Plus précisément, après une recherche par image inversée, il apparaît qu’elles proviennent d’une séance photo clôturant les grands exercices militaires interalliés dans le Pacifique : exercices RIMPAC. Ces images n’ont donc rien à voir avec la situation actuelle dans le golfe d'Aden et en mer Rouge. UNE BATAILLE NAVALE SUR LES RÉSEAUX Au moment où nous mettons en ligne cet article, il faut rappeler qu’effectivement un bateau de commerce a été attaqué par des drones et des missiles, mais C'EST UN CHIMIQUIER NORVÉGIEN : LE « STRINDA » https://www.rfi.fr/fr/moyen-orient/20231212-pétrolier-norvégien-attaqué-en-mer-rouge-attention-aux-images-qui-circulent. POUR LEUR PART, LES MARINES FRANÇAISE ET AMÉRICAINE ONT RÉALISÉ DES INTERCEPTIONS DE DRONES https://www.france24.com/fr/moyen-orient/20231212-mer-rouge-une-frégate-française-a-abattu-un-drone-houthi-qui-menaçait-un-pétrolier-norvégien Des incidents mineurs sont signalés chaque jour, mais à ce stade aucun navire de guerre n’a été touché et aucun pétrolier n'a été perdu. DES VIDÉOS CIRCULENT, CENSÉES MONTRER DES NAVIRES AMÉRICAINS FRAPPÉS PAR DES MISSILES HOUTHIS La cellule Info-Vérif de RFI a passé trois de ces vidéos en revue. La première est relayée par des comptes proches de l’Iran et de leurs alliés houthis, et voudrait faire croire à la destruction d’un croiseur américain près du port de Berbera en Somalie, alors que c’est un exercice anti-navire en Norvège en 2013. Deux autres extraits vidéos se retrouvent dans des films de propagande sur les forces navales yéménites : L’une montre une attaque suicide contre la frégate saoudienne mais elle date de 2017 et l’autre un tir contre une frégate américaine de la classe « Perry », mais c’est là encore lors d’un exercice avec des munitions réelles (SINKEX) en 2022 dans le Pacifique. AGITATIONS SUR LES RÉSEAUX ET RÉPERCUSSIONS DANS LE MONDE RÉEL On pourrait parler des gesticulations sur fond de menace bien réelle. En tout cas, les primes d’assurances pour les bateaux souhaitant transiter par le détroit de Bab-el-Mandeb flambent, les cours du baril augmentent également même si pour l’heure les experts estiment qu’il n’y a pas de risques de pénuries. À écouter aussiCanal de Suez / corne de l'Afrique : enjeux stratégiques majeurs https://www.rfi.fr/fr/podcasts/géopolitique/20231112-canal-de-suez-corne-de-l-afrique-enjeux-stratégiques-majeurs


Un rapport de Microsoft vient de mettre au jour une nouvelle campagne de manipulation informationnelle pro-russe. Plusieurs célébrités américaines ont été manipulées ces derniers mois dans une vaste opération de dénigrement de l’Ukraine. Des vidéos de stars, acteurs, chanteurs, sportifs, ont ainsi été détournées sur les réseaux sociaux pour s’attaquer au président Volodymyr Zelensky. L’histoire commence au mois de juillet 2023. Plusieurs vidéos de stars américaines, comme les acteurs Elijah Wood, Dean Norris ou encore le boxeur Mike Tyson, font leur apparition sur les réseaux sociaux. Dans chacune d’elles, la personnalité en question se filme et s’exprime face caméra durant quelques minutes. On l’entend alors conseiller à un certain « » de se faire soigner pour ses addictions aux drogues. Des émojis de drapeaux ukrainiens, la mention Volodymyr Zelensky ou encore un lien vers une fondation de lutte contre la toxicomanie sont apposés sur ces images. Ces éléments visuels servent à faire croire aux internautes que ces stars parlent en fait du président ukrainien, Volodymyr Zelensky, le présentant comme un toxicomane. MANIPULATION DE MASSE En réalité, ces stars se sont fait manipuler via le site internet Caméo https://www.cameo.com/. Cette plateforme en ligne permet de commander des vidéos personnalisées à des célébrités contre rémunération. Il est par exemple possible de demander à Roger Milla, Lindsay Lohan ou Chuck Norris de vous souhaiter un joyeux Noël pour quelques centaines d’euros. Dans le cas de cette opération informationnelle, au moins sept célébrités américaines ont été payées pour enregistrer ce message de soutien à ce « ». Un message suffisamment vague pour ne pas éveiller leurs soupçons. Ces vidéos issues de Caméo ont été visuellement modifiées pour les faire passer pour des Instagram, présentées ensuite comme des preuves de la supposée toxicomanie de Volodymyr Zelensky. Ce narratif d’un président ukrainien cocaïnomane est véhiculé en masse par la propagande russe depuis le début de l’invasion de l’Ukraine. ENTITÉS « ALIGNÉES SUR LA RUSSIE » Les experts de Microsoft https://blogs.microsoft.com/on-the-issues/2023/12/07/russia-ukraine-digital-threat-celebrity-cameo-mtac/ attribuent cette campagne de manipulation à des entités « ». Une analyse qui correspond à ce que la cellule Info Vérif de RFI https://www.rfi.fr/fr/tag/info-vérif/ a pu observer sur les réseaux sociaux en traquant ces vidéos et en examinant les comptes qui les ont partagées. Une fois relayées sur les réseaux sociaux, certaines de ces déclarations détournées ont été reprises à l’identique dans les médias russes, et notamment par Ria Novosti, l’agence de presse sous la tutelle du Kremlin. L’OMBRE D’EVGUENI PRIGOJINE Ce mode opératoire a déjà été mis en place par la propagande du Kremlin dans le passé. D’après le chercheur spécialiste de l’influence russe, Colin Gérard, le premier recours documenté à ce procédé est directement attribué à la galaxie d’Evgueni Prigojine. Les services de l’ancien patron du groupe Wagner avaient déjà détourné des vidéos obtenues via Caméo en 2020. Le but était notamment de militer pour la libération de l’un de ses idéologues, Maxsim Chougaleï, alors détenu en Libye. Cette fois aussi, plusieurs personnalités s’étaient fait manipuler à l’instar de Charlie Sheen https://foreignpolicy.com/2020/09/23/how-russia-tried-to-weaponize-charlie-sheen-release-operative-libyan-jail/ et Vinnie Jones. Cette campagne de désinformation semble aujourd’hui se poursuivre sous une forme différente. Ces dernières semaines, de fausses citations de stars, comme Taylor Swift, Will Smith, ou Vincent Cassel sont apparues en ligne, dans différentes langues. Ces faux messages appellent tous à arrêter le soutien à l’Ukraine. Rien que sur Facebook, cette opération a touché plus de 7 millions d’utilisateurs d’après une analyse des publicités sur la plateforme consultée par Wired https://www.wired.com/story/elijah-wood-mike-tyson-russia-ukraine-disinformation/. La propagande russe semble donc vouloir continuer à miser sur la manipulation de la notoriété des stars pour tromper les internautes avec l'objectif d’affaiblir le soutien occidental à l’Ukraine.


En République démocratique du Congo, la campagne pour les élections générales entre dans sa dernière ligne droite. Les militants mobilisent aussi sur les réseaux sociaux, avec parfois la tentation de recourir aux infox pour faire pencher la balance en faveur de l’un ou l’autre candidat. Des tentatives de manipulation, dont certaines - jouant sur la fibre nationaliste - instrumentalisent la France. Ce sont nos auditeurs africains qui ont donné l’alerte. Depuis quelques jours, une prétendue prise de position de l’ancien ministre de l'Europe et des Affaires étrangères Jean-Yves Le Drian circule sur les réseaux sociaux. Dans cette pseudo-déclaration, il critiquerait le bilan du président sortant Felix Tshisekedi. On peut y lire : « (...) » Sur les comptes qui partagent ce texte, on peut voir une photo de Jean-Yves Le Drian, le tout sur un fond musical. Ceci étant, jamais on ne l’entend prononcer ces mots. C’est toujours la même image et le même texte qui circulent sur les réseaux. Il s’agit d’une photo officielle qui a été détournée. Elle date de 2019. Si on fait une recherche, avec un logiciel spécialisé (@Pimeyes), elle ressort 52 fois dans des contextes différents. Le texte, qui comporte des fautes d’orthographe et de syntaxe, est parfois transformé en « audio » via une application recourant à une voix synthétique (Text-to-speech). Cette prétendue déclaration a été repérée autour du 30 novembre dernier, sur TikTok avant qu’elle ne circule sur X (ex-Twitter) ou encore à travers des groupes privés sur la messagerie WhatsApp. UN FAUX DESTINÉ À SEMER LE TROUBLE Dans l’entourage de l’ancien ministre, la réponse est sans appel : « » Cela n’empêche pas certains d’y croire, et de commenter cette fausse information. Par exemple, le 4 décembre, on peut lire, sur un compte X, supposé être celui d'un ancien diplomate rwandais : « » dans ce pays, sous-entendu « la mauvaise gestion » de la RDC. Ce n’est pas la première fois que cette figure de la vie politique française fait l’objet de fausses publications sur les réseaux concernant la vie politique en RDC. L’objectif est avant tout de jeter de l’huile sur le feu. Ces manipulations ne visent pas systématiquement la France, mais servent souvent à discréditer tel ou tel responsable politique congolais, par effet de ricochet. EN 2020, UN TEXTE SIMILAIRE ÉTAIT DÉJÀ APPARU https://factuel.afp.com/crise-politique-en-rdc-quand-les-fake-news-jettent-de-lhuile-sur-le-feu sur les réseaux. Cette fois, il s’agissait d’une soi-disant citation du ministre, alors encore en activité, sous la forme d’une publication cette fois sur Facebook. « », telle est donc la teneur des propos attribués au ministre français des Affaires étrangères qui aurait même ajouté : « » Or, il n’existe aucune trace de telles déclarations, ni dans les médias locaux, ni dans les médias internationaux, rappelle l’agence de presse. Le Quai d'Orsay évoquait déjà une « ». JEAN-YVES LE DRIAN ET LA POLÉMIQUE AUTOUR DE L’ÉLECTION DE 2019 Il peut paraître surprenant, de voir surgir la figure du ministre français dans le débat politique congolais, d'autant que Jean-Yves Le Drian a quitté le ministère de l’Europe et des Affaires étrangères en mai 2022 où il a été remplacé par Catherine Colonna, aujourd’hui encore à la tête du Quai d’Orsay. Reste que l’ancien ministre de la Défense et ancien chef de la diplomatie française demeure un personnage connu en Afrique. Il a sillonné le continent de long en large, particulièrement lorsqu’il était en poste à la Défense, effectuant pas moins de 32 voyages officiels en Afrique entre 2012 et 2017. En Afrique, Jean-Yves Le Drian a laissé son empreinte, grâce notamment à des relations personnelles entretenues avec certains chefs d’État. En RDC, ce sont surtout les propos tenus sur France Inter en 2019 après la présidentielle au Congo, qui ont fait couler beaucoup d’encre. À l’époque, il avait affirmé que l’élection s’était achevée par « », tout en faisant part de ses doutes sur les résultats lors de l’annonce de la victoire de Félix Tshisekedi. Cette petite phrase a laissé des traces, et en mars 2023, lors de la visite du président Emmanuel Macron à Kinshasa, Felix Tshisekedi n’avait pas manqué de le rappeler à l’ordre sur le sujet, en pleine conférence de presse conjointe. D’ailleurs, cet incident a probablement ouvert la voie à de FAUSSES INFORMATIONS METTANT EN SCÈNE EMMANUEL MACRON https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox-la-chronique/20230908-rdc-un-faux-audio-d-emmanuel-macron-sur-la-manifestation-à-goma quelques mois plus tard, via un : l’enregistrement d’un faux discours ouvertement hostile à Félix Tshisekedi, le tout généré par l’intelligence artificielle. L’objectif de cette manipulation était de s’attaquer au régime de Félix Tshisekedi à quelques mois de la présidentielle et c’était aussi un moyen d’alimenter le sentiment anti-français, en présentant cet audio comme une nouvelle ingérence de la France dans les affaires politiques d’un pays africain.


Après avoir passé dix-sept jours sous terre, 41 ouvriers bloqués dans un tunnel ont été secourus ce mardi 28 novembre dans le nord de l’Inde. Une catastrophe causée par l’effondrement du tunnel qu'ils creusaient dans l'Himalaya. Cet événement a suscité énormément de réactions sur les réseaux sociaux et dans les médias. Des réactions parfois accompagnées d’images sorties de leur contexte ou même générées par l’intelligence artificielle. Pendant que les Indiens avaient les yeux rivés sur LE SAUVETAGE DE CES 41 OUVRIERS COINCÉS https://www.rfi.fr/fr/asie-pacifique/20231128-inde-les-41-ouvriers-coincés-dans-un-tunnel-commencent-à-être-évacués-après-17-jours-sous-terre dans le noir et dans le froid, une photo est rapidement devenue virale sur les réseaux sociaux en Inde et ailleurs dans le monde. On y voit un vieil homme, casque et lampe de mineur sur la tête. Il semble être assis dans une cavité, son visage et son corps sont marqués par le travail. Les nombreux comptes qui partagent ce cliché affirment, à tort, que cet homme serait l’un des ouvriers indiens coincés dans le tunnel. En réalité, cette photo n’a aucun lien avec cette catastrophe en Inde. Grâce à une recherche d'image inversée, nous l’avons retrouvée publiée sur Facebook dès le mois de mai 2019. Les premiers comptes qui l'ont partagée entre 2019 et 2020 affichent des publications en pachtoune. Une langue parlée principalement en Afghanistan et au Pakistan. Cependant, il est impossible de savoir exactement d’où provient cette photo et qui est précisément cet homme. Même si cette photo n’a rien à voir avec les ouvriers pris au piège dans un tunnel en Inde, cela n'empêche pas certains internautes de la diffuser en masse pour émouvoir et faire du clic. D’autres s’en servent également pour critiquer la gestion de la catastrophe par le Premier ministre Narendra Modi. L’IA SÈME LE TROUBLE Au-delà de cette photo sortie de son contexte, on voit également circuler des images générées par l’intelligence artificielle. Cette fois, ce sont les secouristes qui sont concernés. Une image prétend les montrer en train de poser, tout sourire, sous terre avec un drapeau indien. Les hommes portent un casque orange, certains lèvent la main en signe de victoire. Cette image a fait le tour des réseaux sociaux mais aussi de la presse indienne. Plusieurs médias l’ont partagée en indiquant en légende « ». Une légende trompeuse puisque cette image a été entièrement générée par l’intelligence artificielle. Plusieurs indices permettent de se rendre compte que ce cliché est un produit de l'intelligence artificielle générative. Comme souvent, l’IA a du mal à recréer fidèlement les mains humaines. En zoomant sur l’image, on distingue que certains secouristes n’ont pas cinq mais six doigts par main. Les expressions faciales sont également anormales. Certains visages apparaissent totalement déformés. En faisant une recherche d’image inversée, nous avons retrouvé le premier compte qui a partagé cette image en ligne. Lui-même précise, plusieurs heures après sa publication, qu’il s’agit d’une création de l’intelligence artificielle. Des heures de doute qui ont suffi à tromper les internautes et à rendre l’image virale sur les réseaux sociaux. Des outils existent pour détecter le recours à l’intelligence artificielle, mais ils ne sont pas encore fiables à 100 %. Dans ce cas précis, nous en avons utilisé trois différents (AI OR NOT https://www.aiornot.com/, HIVE MODERATION https://hivemoderation.com/ai-generated-content-detection, ISITAI https://isitai.com/ai-image-detector/) pour croiser les résultats. Ici, ils sont unanimes : cette image est entièrement artificielle. Malgré ça, beaucoup se sont fait avoir. C’est le cas notamment du ministre indien des Chemins de fer.


Sur fond de guerre entre Israël et le Hamas, les Houthis yéménites ont détourné un cargo en mer Rouge dimanche 19 novembre. Le a été capturé alors qu’il naviguait au large de l’Arabie saoudite. Les rebelles disent avoir attaqué « », pour soutenir leurs alliés palestiniens. Un détournement qui a suscité de nombreuses infox sur les réseaux sociaux, à commencer par de fausses images de l’attaque. Dès les premières heures après l’annonce du détournement du en mer rouge, une vidéo sortie de son contexte est devenue virale sur les réseaux sociaux. Durant trente secondes, on y voit trois embarcations rapides aborder un cargo en pleine mer. Des hommes armés grimpent sur le pont à l’aide d’une échelle. La légende, en arabe, précise : « ». Des internautes ajoutent que parmi les membres de l’équipage, vingt-deux Israéliens auraient été pris en otages. Une affirmation démentie par Benyamin Netanyahu qui a évoqué une « ». Selon Israël, des Ukrainiens, des Bulgares, des Mexicains et des Philippins figurent parmi les otages. En réalité, cette vidéo n’a aucun rapport avec l’attaque des Houthis. Le bateau visible sur ces images n’est pas le , tout comme les hommes armés ne sont pas des rebelles yéménites. En zoomant sur l’image, on remarque un drapeau rouge et blanc à l’avant des embarcations d’assaut : celui de la Pologne. L’analyse de la tenue des hommes en armes confirme qu’il s’agit de soldats de la marine polonaise. Une recherche d’image inversée permet de retrouver cette vidéo publiée sur YouTube en juin 2022. D’après certains commentaires, elle montre en réalité un exercice de la marine polonaise. Une autre vidéo, massivement relayée notamment en arabe, prétend montrer le moment où les Houthis ont détourné le navire. On y voit un imposant cargo blanc et bleu arriver dans un port. D’APRÈS UNE ENQUÊTE DE L’AFP FACTUEL https://factuel.afp.com/ar/doc.afp.com.344787E, il ne s’agit pas du . La vidéo en question a en effet été publiée avant le détournement du navire commercial, par une chaîne allemande spécialisée dans la publication de contenus sur les mouvements de navires. Cette publication date du 11 novembre 2023, soit plusieurs jours avant l’attaque du . DES ARMES RETROUVÉES DANS LE CARGO ? Un autre récit très partagé en ligne affirme que le , naviguant sous le pavillon des Bahamas, transportait des armes. Un narratif véhiculé avec deux photos sur lesquelles on voit un cargo à quai avec du matériel militaire sur le pont. Plusieurs bateaux pneumatiques, des véhicules et des caisses de transport sont notamment entreposés. Des internautes affirment que ces clichés montreraient les prises de guerre des rebelles Houthis sur le . Vérification faite, cette photo est sortie de son contexte. Grâce à une recherche par image inversée, on la retrouve publiée dans plusieurs articles de presse dès le mois de janvier 2022. Des articles dans lesquels on apprend qu’il s'agit en réalité du cargo . UN NAVIRE ÉMIRATI DÉTOURNÉ, LÀ ENCORE PAR LES REBELLES YÉMÉNITES https://www.rfi.fr/fr/moyen-orient/20220103-yémen-un-navire-émirati-saisi-par-les-houthis-en-mer-rouge, mais il y a plus d’un an, en janvier 2022. Ce qui n’a pas empêché le média qatarien al-Jazeera d’utiliser cette photo pour illustrer l’un de ses sujets sur le détournement du . Un cargo détenu par une société britannique dont l’un des propriétaires serait un Israélien. CE QUE DISENT LES VÉRITABLES IMAGES Jusqu’ici, il n’y a aucune preuve de la présence d’armes dans le . À ce sujet, la vidéo de l’attaque publiée par les rebelles yéménites apporte des informations intéressantes. Les images montrent un commando déposé par hélicoptère sur le pont du navire. Les hommes armés se filment ensuite à l’intérieur du cargo. On y voit alors le hangar totalement vide, alors que - normalement- c’est là que sont stockées la majorité des marchandises. Autre élément important, la ligne de flottaison du est visible sur la vidéo. Autrement dit, le bateau est peu enfoncé dans l’eau ce qui signifie qu’il n’est presque pas chargé.


En Ukraine, la situation est toujours extrêmement tendue autour d’Avdiivka, à une dizaine de kilomètres de Donetsk. Ces dernières semaines, cette localité est devenue la cible principale de l’offensive russe sur le front est. Une offensive menée sur le terrain mais aussi en ligne, à coup de fausses informations. La dernière en date affirme que Volodymyr Zelensky aurait demandé à ses soldats de se retirer de la ville. Un ordre qui n’a pourtant jamais existé. À en croire certains internautes sur les réseaux sociaux, voici les propos qu’auraient tenus Volodymyr Zelensky dans un discours télévisé : Leur allégation, fallacieuse, s'appuie sur une vidéo dans laquelle on voit le président ukrainien s'exprimer depuis son bureau pendant que des images de tombes de soldats ukrainiens défilent. L’extrait dure cinquante-six secondes. Il est estampillé avec le logo et les éléments graphiques de la chaîne de télévision ukrainienne 1+1. MANIPULATION DE L’IMAGE ET DU SON Vérification faîte, Volodymyr Zelensky n’a jamais tenu les propos qui lui sont attribués dans cette vidéo qui n’a pas été diffusée à la télévision ukrainienne. En réalité, cet extrait est un montage. Le logo de la chaîne de télévision et ses éléments graphiques ont été superposés sur un vieux discours de Volodymyr Zelensky. Le son est un autrement dit, la voix du président ukrainien a été clonée, reproduite par l’intelligence artificielle, pour lui faire dire quelque chose qu’il n’a jamais dit dans la vraie vie. Plusieurs éléments permettent d’arriver à cette conclusion. D’abord, l’extrait en question est introuvable sur les réseaux sociaux officiels de Volodymyr Zelensky et de la chaîne de télévision ukrainienne. Aucun média, ukrainiens, russes ou même internationaux n’ont rapporté ces propos. D’un point de vue visuel, le mouvement des lèvres du président ukrainien ne correspond pas avec les mots qu’il prononce en ukrainien. Le son semble donc avoir été apposé sur une autre allocution télévisée. Une piste confirmée par une recherche d’image inversée qui nous a permis de retrouver le véritable discours qui a été utilisé dans la manipulation. Ce discours original date du 31 octobre 2023. Volodymyr Zelensky y évoque la situation en mer noire, le soutien international, le courage des forces ukrainiennes sur le terrain mais à aucun moment il ne fait mention d’un retrait des soldats positionnés à Avdiivka. D’après nos recherches, cette vidéo manipulée commence à circuler dès le 13 novembre 2023 sur des chaînes Telegram pro-russe dont certains comptant plus de 300 000 abonnés. L’infox se retrouve ensuite sur les réseaux sociaux : X et Facebook notamment, toujours en russe. Cela laisse penser que l’opinion russe est la principale cible de cette manipulation. LES INFOX DOPÉES PAR L’INTELLIGENCE ARTIFICIELLE Ce n’est pas la première fois qu’un discours de Volodymyr Zelensky est détourné. Un mois seulement après le début de l’invasion russe en février 2022, le président ukrainien avait déjà été la cible d’un deep fake https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox-la-chronique/20220318-les-deepfakes-sur-le-front-de-la-désinformation-dans-la-guerre-en-ukraine, où on croyait, à tort, l’entendre appeler les Ukrainiens à déposer les armes. Plus récemment, le commandant en chef des forces armées ukrainiennes a aussi été ciblé. Une vidéo manipulée affirme qu’il aurait appelé à un coup d’État militaire mais là encore, c’est une infox.


Plus d’un mois après l’attaque terroriste du Hamas et le début de la guerre entre Israël et les mouvements armés palestiniens, la désinformation ne faiblit toujours pas sur les réseaux sociaux. Alors que le bilan humain à Gaza ne cesse d’augmenter avec plus de 10 800 morts selon le Hamas, des comptes pro-israéliens affirment que les Palestiniens mettent en scène leurs victimes. Un narratif très répandu, symbolisé par le hashtag Pallywood, contraction de Palestine et Hollywood. Chaque jour des images terribles de blessés, de cadavres ou de personnes coincées sous des décombres dans la bande de Gaza émergent sur les réseaux sociaux. Si celles-ci sont bien réelles, cela n'empêche pas certains internautes d'avancer, à tort, que ces photos et vidéos seraient des « ». C’est ce que prétend notamment, à tort, une vidéo partagée des milliers de fois sur les réseaux ces derniers jours. Durant deux minutes, on y voit des hommes et des femmes en train de maquiller des civils avec du faux sang. Pour certains, ce serait la preuve d’une mise en scène généralisée des victimes gazaouies ces derniers jours. Vérification faite, cette vidéo n’a aucun lien avec la guerre en cours entre Israël et le Hamas. Grâce à une recherche d'image inversée, on sait que cette vidéo date de février 2017. Elle montre en réalité un exercice de simulation destiné à former des médecins dans le tri des patients en cas d'urgence. Cette formation avait été réalisée par l’association Médecins du Monde en lien avec une entreprise gazaouie spécialisée dans le maquillage et les effets spéciaux pour le cinéma. CONTACTÉE PAR REUTERS EN 2017 https://www.reuters.com/article/factcheck-fake-gaza-idUSL2N2N52AF, la coordinatrice de Médecins du Monde à Gaza, Heba Hamarnah, avait déclaré : « » Le média Gaza Post avait alors réalisé un reportage sur place. Ce sujet a donc été sorti de son contexte pour reprocher, à tort, aux Palestiniens de mettre en scène leurs morts. Cette même vidéo avait déjà été détournée en 2021, toujours pour appuyer ce narratif de la mise en scène à l’aide d’acteurs de crise. #PALLYWOOD, UN NID À INFOX Les vidéos de ce genre, sorties de leur contexte pour appuyer le récit des mises en scène, se comptent par dizaines sous le #Pallywood. L’une des dernières en date montre des hommes marcher dans la rue. Ils tiennent une civière sur laquelle on distingue un corps de petite taille allongé sous un drap, laissant penser qu’il s’agit d’un cadavre. Au bout de quelques secondes, une sirène retentit. Dans la panique, le groupe s’enfuit et laisse derrière lui la civière posée sur le sol. C’est alors que l’enfant sous le drap se lève et s’enfuit à son tour. Certains internautes parlent alors d’un « » de la part de Palestiniens. En faisant une recherche par image inversée, on retrouve cette même vidéo publiée sur Facebook en mars 2020 par Roya News. SELON CE MÉDIA JORDANIEN https://www.facebook.com/RoyaNewsEnglish/videos/663834944443599, elle montre en fait un groupe de jeunes qui auraient tenté de braver le couvre-feu instauré en Jordanie lors de la pandémie de Covid-19. Cette fausse cérémonie de funérailles qui prête à sourire n’a donc aucun rapport avec le conflit israélo-palestinien. Encore une fois, ces images ont DÉJÀ ÉTÉ SORTIES DE LEUR CONTEXTE EN 2021 https://www.reuters.com/article/factcheck-gaza-idUSL1N2N00RT, avant de refaire surface cette semaine sous le #Pallywood. Ces derniers jours, une vidéo d’un cours de préparation aux rites funéraires musulmans en Malaisie a aussi été détournée POUR PRÉSENTER, À TORT, DES « » https://factuel.afp.com/doc.afp.com.33ZY63Z. L’ORIGINE DE « PALLYWOOD » Le terme « Pallywood » a été inventé au début des années 2000 par RICHARD LANDES https://www.wikiwand.com/es/Richard_Landes, un historien américain pro-israélien. Il l’utilise alors pour qualifier de prétendues « mises en scènes palestiniennes ». Au fil des années, l’expression se répand, notamment dans des médias israéliens. Aujourd'hui, elle sert toujours à mettre en doute l’existence de victimes civiles dans la bande de Gaza. L’analyse des requêtes sur Google montre que ce mot ressurgit à chaque regain de tension entre Israël et les mouvements palestiniens. Ces dernières semaines, le #Pallywood a cumulé plusieurs millions de vues sur les réseaux sociaux, toujours dans le but de moquer les victimes gazaouis, à coup de fausses informations. Selon l’Agence France-Presse, des représentants palestiniens ont indiqué ce jeudi 9 novembre 2023, que 10 812 personnes, dont environ 40% d'enfants, ont été tuées dans l'offensive israélienne menée depuis le 7 octobre.


Le 30 octobre 2023, l’international argentin Lionel Messi, recevait son huitième Ballon d’or. Au même moment, l’armée israélienne s’enfonçait dans la bande de Gaza pour essayer d’en déloger le Hamas. Il n’en fallait pas plus pour qu'une photo détournée le présente avec un drapeau israélien entre les mains. Cette manipulation vise à exploiter la notoriété de la star du ballon rond et dont Cristiano Ronaldo a également été la cible. L’image a été visionnée des centaines de milliers de fois. Il s’agit d’une capture d’écran d’un post Instagram. Lionel Messi tout sourire prend la pose. Il tient une pancarte frappée de l’étoile de David, symbolisant un drapeau israélien flottant au vent. Une recherche par image inversée permet de constater que cette image a été partagée sur plusieurs réseaux sociaux comme Facebook et Twitter. Cela étant, au premier coup d’œil, on s’aperçoit que la texture du drapeau est différente de celle du fond de l’image. En réalité, il s’agit d’un trucage. RFI a pu retrouver l’image originale qui a été manipulée. Elle provient du compte Instagram d'Icons, une marque d’articles de sport avec laquelle Lionel Messi a signé en septembre un partenariat publicitaire. L’image a été copiée et modifiée. À la place d’une pancarte sur la laquelle était inscrit le nom de cette marque, quelqu’un a superposé un drapeau israélien. IMAGES MENSONGÈRES Ce n’est pas la première fois qu’un footballeur est victime d’une tentative de récupération. Sur fond de guerre au Moyen-Orient, on a vu remonter à la surface des images de la star Cristiano Ronaldo portant une pancarte aux couleurs palestiniennes. Ronaldo a plus de 600 millions de followers sur son compte Instagram, ce qui fait de lui l’une des personnalités les plus suivies dans le monde. Seulement vérification faite, il n’a pas récemment affiché de signe de solidarité avec les Palestiniens sur ses réseaux sociaux : Facebook, X (anciennement Twitter) ou Instagram. En 2019, L’AGENCE FRANCE-PRESSE S’ÉTAIT DÉJÀ PENCHÉE SUR LA QUESTION https://factuel.afp.com/cette-photo-de-cristiano-ronaldo-affichant-son-soutien-la-palestine-est-un-montage. Résultat : la photo truquée de Ronaldo remonte à 2011. Effectivement, sur cette image, il apparait beaucoup plus jeune qu’aujourd’hui. Sur la photo originale, il brandissait une affiche, en soutien aux habitants de la ville de Lorca dans le sud de l’Espagne, alors frappée par un tremblement de terre. On pouvait alors y lire « », c'est-à-dire « ». Le texte a été transformé en : « » soit « ». Un drapeau palestinien a été ajouté sur la partie gauche de l’image. Ce contenu est donc un faux. LES FOOTBALLEURS PROFIL BAS ? « », indique l’équipe de Radio Foot Internationale, interrogée sur le sujet. Toutefois, il y a toujours une dimension géopolitique dans le foot. Par exemple, la Coupe du monde au Qatar a donné lieu à des signes de soutien aux Palestiniens de la part des supporters et des joueurs comme ceux du Maroc arrivés en demi-finale. Plus récemment, un tweet de Karim Benzema, évoluant dans un club d’Arabie saoudite, et apportant son soutien aux habitants de Gaza, avait suscité une vive polémique en France.


Depuis l’attaque terroriste du Hamas sur le sol israélien le 7 octobre 2023, le monde entier a les yeux rivés sur le Moyen-Orient. Vingt-et-un jours après le début de la guerre entre Israël et le mouvement islamiste, la communauté internationale reste divisée. Alors que les réactions des chefs d’État et des diplomaties se multiplient, certains internautes en profitent pour fabriquer et diffuser de fausses déclarations, à l’image d’un discours manipulé de Kim Jong-Un. Le leader nord-coréen a-t-il évoqué dans un discours la guerre entre Israël et le Hamas pour s’attaquer à Joe Biden et soutenir Donald Trump ? C’est ce que prétend, à tort, une vidéo massivement partagée en ligne ces derniers jours. On y voit Kim Jong-un derrière un pupitre, en train de prononcer une allocution en coréen. Un texte apposé sur la vidéo prétend traduire ses propos. À en croire cette traduction, Kim Jong Un aurait déclaré : « ». TRADUCTION MANIPULÉE Vérification faite, le dictateur nord-coréen n’a jamais tenu les propos qui lui sont prêtés dans cette vidéo. En réalité, la traduction a été créée de toutes pièces. Pour s’en apercevoir, nous avons commencé par effectuer une recherche par image inversée. Cela nous a permis de retrouver la vidéo originale dont a été tiré cet extrait de trente-cinq secondes. Elle date du 10 octobre 2020 et montre en fait le discours de Kim Jong-un durant le 75E ANNIVERSAIRE DE LA FONDATION DE SON PARTI https://www.rfi.fr/fr/asie-pacifique/20201010-la-corée-nord-présente-missile-intercontinental-géant. En faisant traduire la bande son, on apprend que le leader nord-coréen remercie son peuple et son armée pour leur engagement patriotique face à l’épidémie de Covid-19 et aux catastrophes naturelles. Mais à aucun moment de cette allocution, il ne parle du conflit israélo-palestinien, ni de Donald Trump ou même de Joe Biden qui n’avait pas encore été élu président le 10 octobre 2020. Ce discours avait marqué les esprits puisque le dictateur nord-coréen s’était affiché en larmes à la tribune. UNE TRADUCTION COMPLÈTE DU DISCOURS EN ANGLAIS https://www.ncnk.org/resources/publications/kju_october_10_2020_wpk_anniversary_parade_speech.pdf/file_view avait d'ailleurs été réalisée par le Comité national sur la Corée du Nord, une ONG basée aux États-Unis. INFOX PRO-TRUMP D’après nos recherches, cette infox apparaît pour la première fois sur un compte TikTok qui se présente comme « » et aussi comme un partisan de Donald Trump. Il cumule presque 60 000 abonnés et plus d’1,3 million de mentions « j'aime » sur ses contenus. Son infox a ensuite été massivement reprise par des comptes pro-Trump sur Twitter, Facebook et Instagram. Elle cumule aujourd’hui plus de 4 millions de vues sur l’ensemble des plateformes. CONTEXTE PRÉ-ÉLECTORAL AUX ÉTATS-UNIS Le timing de la publication de cette fausse information qui instrumentalise le conflit israélo-palestinien pour s’attaquer à la politique de Joe Biden n’a rien d’anodin. Dans un an, les électeurs américains seront appelés aux urnes pour élire leur nouveau président. Les candidats déclarés, parmi lesquels figurent Joe Biden et Donald Trump, sont d’ores et déjà en campagne, tout comme les électeurs sur les réseaux sociaux qui, pour certains, n’hésitent pas à désinformer pour essayer d’influencer l’opinion. Cette vidéo détournée de Kim Jong-un s’inscrit dans un narratif poussé depuis longtemps par Donald Trump et ses partisans, celui d’un Joe Biden va-t-en-guerre qui risquerait d’entraîner le monde dans une troisième guerre mondiale. KIM JONG-UN, NOUVEL OUTIL DE DÉSINFORMATION Ce n’est pas la première fois qu'un discours de Kim Jong-un est détourné à des fins de désinformation sur les réseaux sociaux. Suite au coup d’État du général ABDOURAHAMANE TIANI https://www.rfi.fr/fr/en-bref/20230728-niger-le-général-abdourahamane-tchiani-a-pris-la-parole-en-tant-que-président-du-conseil-national-pour-la-sauvegarde-de-la-patrie-un-cnsp-à-l-origine-d-un-coup-d-étatle 26 juillet 2023 au Niger, une vidéo circulait affirmant, à tort, que KIM JONG-UN AURAIT MENACÉ DE DÉTRUIRE TOUT PAYS VOULANT S’ATTAQUER AU NIGER https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox-la-chronique/20230915-kim-jong-un-le-nouvel-instrument-de-la-désinformation-au-niger. Là-encore, la traduction était totalement manipulée.


Qui est à l’origine de l’explosion meurtrière qui a frappé l’hôpital Al-Ahli dans la soirée du mardi 17 octobre 2023 ? Trois jours après les faits, les images disponibles en ligne ne permettent toujours pas de répondre à cette question avec certitude. Sur les réseaux sociaux, de nombreuses publications parlent pourtant d’une frappe délibérée de l’armée israélienne. Un narratif poussé à coup d’infox. Un débris de bombe serait-il la preuve de la responsabilité israélienne dans l’explosion meurtrière qui a frappé l’hôpital Al-Ahli, à Gaza ? C’est ce que prétend, à tort, une photo qui circule en ligne ces derniers jours. On y voit un groupe d’hommes tenir un imposant morceau de métal posé sur le sol. En zoomant sur ce débris, on peut y lire « Bomb MK 84 » accompagné d’un numéro de série. Ces munitions américaines vendues à Israël sont utilisées en masse pour bombarder la bande de Gaza. Elles sont notamment équipées d’un système de guidage par satellite, aussi appelé J-DAM. Des internautes affirment que ce débris proviendrait de l’engin qui aurait frappé l’hôpital. Or, vérification faîte, cette photo n’a rien à voir avec l’explosion survenue dans l'enceinte de l’hôpital. Grâce à une recherche d’image inversée, on sait que ce cliché est apparu en ligne avant l’explosion meurtrière. On l’a retrouve publiée sur des comptes X, anciennement Twitter, dès la matinée du mardi 17 octobre, soit plusieurs heures avant l’explosion qui est survenue dans la soirée, aux alentours de 19 h heure locale (16 h 00 GMT). Des photos de cette même scène sont aussi publiées par l’agence de presse palestinienne, Shebab News, mardi 17 octobre à midi. Elles montrent des civils en train de récupérer un débris de bombe suite à une frappe israélienne dans le quartier de Khan Yunis, à 20 kilomètres de l’hôpital. Cette image est donc sortie de son contexte. AUCUNE TRACE DE DÉBRIS Jusqu’ici, rien ne montre des débris de projectiles retrouvés sur le site de l'hôpital Al-Ahli. Sur les lieux de l’explosion, les images publiées sur les réseaux sociaux permettent de distinguer un seul impact de faible profondeur sur le parking de l’hôpital. Le sol est noirci, une vingtaine de véhicules civils sont calcinés autour. Certaines vitres de l’hôpital sont cassées, des tuiles sont arrachées mais la scène ne montre pas des dégâts consécutifs à un bombardement aérien tel qu’on a pu en observer depuis le début de la guerre. Si rien n’atteste jusqu’ici de la responsabilité israélienne, la thèse de la défaillance d’une roquette tirée depuis Gaza est-elle plausible ? C’est la thèse défendue depuis le début par l’armée israélienne. À la date d'écriture de cet article, l’analyse des images ne permet pas d’écarter cette hypothèse. Les événements s’étant déroulés dans une zone contrôlée par le Hamas, seul le mouvement islamiste serait en mesure de fournir des éléments de preuve. Les images ne permettent pas non plus de confirmer le lourd bilan humain, avancé par le Hamas, de presque 500 morts. UN EMBALLEMENT MÉDIATIQUE ? Sans preuves concrètes, pourquoi le récit du Hamas a-t-il été aussi vite repris par les médias ? Cette question, de nombreux internautes se la posent légitimement. Pour essayer de trouver une explication, il faut rappeler l’importance du contexte. Depuis l’attaque du Hamas sur Israël, plus de 2 000 civils sont morts sous les bombes israéliennes dans la Bande de Gaza. Israël ayant décidé de couper Gaza de tout approvisionnement, cette situation a suscité une vive émotion partout dans le monde, ce qui a sans doute créé un biais au détriment de la réalité des faits. Cela peut être une des raisons pour laquelle des accusations sans preuves se sont propagées dès les premières heures du drame. Il est important de rappeler que sans enquête indépendante sur le terrain, il est actuellement impossible de dégager avec certitude les responsabilités de chacun.


Des civils abattus en pleine rue, des cadavres jonchant les trottoirs, des blessés coincés sous les décombres… Les images d’horreurs ont inondé les réseaux sociaux depuis l’attaque meurtrière du Hamas contre Israël, samedi 7 octobre 2023. Profitant de l’émotion et de la sidération, certains internautes partagent aussi de nombreux contenus trompeurs. Une désinformation d’une ampleur sans précédent, qui ajoute à la confusion. Il n’aura pas fallu attendre pour observer la désinformation autour de cette guerre. Dès les premières heures de l’attaque du Hamas, des infox autour des événements en cours se répandent déjà sur les réseaux sociaux et messageries privées. La sidération des internautes face à la violence des images est alors un contexte particulièrement propice à la propagation de fausses informations. Dans la matinée du samedi 7 octobre, plusieurs vidéos, parfois vues plusieurs millions de fois, affirment par exemple que le Hamas aurait abattu des hélicoptères israéliens au-dessus de la bande de Gaza. Les images sont impressionnantes. Sur l’une d'entre elles, on voit un homme abattre un appareil à l’aide d’un missile sol-air, sur l’autre, deux appareils sont touchés en plein vol. En réalité, ces deux vidéos n'ont rien à voir avec la guerre entre Israël et le Hamas. Elles sont tirées d’un jeu vidéo, Arma 3, réputé pour son réalisme. On retrouve les clips en question DIFFUSÉS SUR YOUTUBE BIEN AVANT LE CONFLIT https://www.youtube.com/shorts/qgAv7lgg81Q. Un procédé de désinformation déjà largement documenté depuis le début de l’invasion de l’Ukraine. Ce qui a poussé le développeur à réagir : « » D’autres publications affirment aussi montrer une trentaine de parachutistes du Hamas en plein vol au-dessus d’Israël. Si le mouvement islamiste a bien utilisé des paramoteurs pour son attaque, cette vidéo n’a pas été prise en Israël, contrairement à ce qu'affirment de nombreux internautes. Grâce à une géolocalisation de la scène réalisée par le journaliste Mohammed Zubair, on sait qu’il s’agit d’un exercice militaire filmé en Égypte. En effet, on reconnaît l'Académie militaire d'Al Matar, El Nozha, au Caire, en Égypte. LES VICTIMES, AUTRE CIBLE DES INFOX Au-delà du mode opératoire de l'attaque du Hamas, la désinformation vise aussi les victimes de cette guerre des deux côtés. Pour minimiser le bilan humain de l'attaque du Hamas, certains internautes avancent qu’Israël mettrait en scène des cadavres. Leur supposée « preuve » est une vidéo de trente secondes dans laquelle on voit un jeune homme au sol, entouré de civils et de militaires, en train de faire le mort pendant qu’une équipe de tournage filme la scène. En réalité, cet extrait a été filmé lors de la réalisation d’un court métrage palestinien intitulé , réalisé par Awni Eshtaiwe et PUBLIÉ SUR YOUTUBE LE 18 AVRIL 2022 https://www.youtube.com/watch?v=t90fUoHd-8A. Ce narratif de la mise en scène des victimes est aussi utilisé pour minimiser les victimes des bombardements israéliens sur la bande de Gaza. Encore une fois, la vidéo à l'appui de cette infox est sortie de son contexte. On y voit plusieurs hommes couchés par terre, sous des draps blancs, avec du monde autour. Certains bougent et rigolent. Le commentaire de la publication ironise et ajoute : « » avec le hashtag « Palestine ». Mais ces images n’ont rien à voir avec les bombardements en cours sur la bande de Gaza. Vérification faite, la vidéo date de 2013. Elle montre une action militante organisée par des étudiants égyptiens pour protester contre le gouvernement en place à l'époque. LA RESPONSABILITÉ DES RÉSEAUX SOCIAUX Ce torrent de fausses informations soulève de nombreuses questions sur la responsabilité des réseaux sociaux car si chaque conflit a droit à son lot d'infox, la manipulation des images autour de cette guerre atteint des records. C’est d’autant plus grave que sur Facebook, TikTok et X (ex-Twitter) notamment, la plupart des fausses informations épinglées et vérifiées sont encore en ligne. C’est la raison pour laquelle le commissaire européen au marché intérieur, Thierry Breton, a rappelé les patrons de ces plateformes à leurs obligations. Il a réclamé la suppression de tous les contenus signalés comme illégaux et ANNONCÉ L’OUVERTURE D’UNE ENQUÊTE CONTRE X https://ec.europa.eu/commission/presscorner/detail/en/ip_23_4953 (ex-Twitter) pour désinformation. L'Union européenne fait pression sur ces réseaux sociaux pour supprimer tout contenu illégal de leurs plateformes et se conformer à la réglementation sur les services numériques (Digital Services Act, ou DSA, en anglais) entré en vigueur cet été et qui doit encadrer les activités des géants du numérique, sous peine de sanctions.


Alors que le désengagement des militaires français du Niger a commencé ce jeudi 5 octobre 2023, la désinformation autour de l'activité des soldats tricolores dans le Sahel bat son plein. Cette semaine, une vieille vidéo sortie de son contexte a refait surface pour faire croire à une implication de l'armée française dans la formation de terroristes liés à al-Qaïda. La vidéo en question apparaît le 3 octobre 2023 sur un compte Twitter nigérien ouvertement anti-occidental. Sur les images, on y observe des soldats français en tenues couleur sable, équipés de gilets pare-balles qui semblent procéder à une séance d’instruction au tir. L’arme utilisée n’est pas d’origine française. Il s'agit d'une PKM, une mitrailleuse que l'on retrouve régulièrement en Afrique, dans les rangs des armées régulières ou des mouvements rebelles. L’instruction se passe dans une bonne ambiance entre des soldats français portant un badge de l’opération Barkhane sur l’épaule et des éléments en treillis militaires la tête enturbannée dans un chèche. On y entend des hommes échanger en tamashek, une langue touarègue parlée principalement au Mali. Le commentaire qui accompagne la vidéo indique : « » UNE VIDÉO DÉTOURNÉE… EN 2021 Vérification faîte, cette vidéo a déjà été analysée PAR L’AFP FACTUEL EN 2021 https://factuel.afp.com/http://doc.afp.com/9E26WC-1. Elle montre en réalité, d’après l’armée malienne contactée par l’AFP en 2021, « » et non pas une formation clandestine dispensée à des « ». « », avait alors ajouté l’officier interrogé. Une version confirmée par la défense à Paris qui indique que cet événement s’est déroulé dans le nord du pays dans le cadre du Mécanisme opérationnel de coordination (MOC) chargé d'intégrer d'anciens rebelles dans les rangs de l'armée malienne (FAMa). Pour rappel, l'opération Barkhane a quitté le Mali en 2022. UN NARRATIF FALLACIEUX BIEN CONNU Le récit qui accuse la France de soutenir les terroristes est un classique de la désinformation au Sahel. De l’avis d'experts, ce narratif fonctionne et infuse. En quelques heures, cette vidéo ressortie du placard, s’est répandue sur la toile, notamment portée par un autre compte, dont l’auteur se présente comme un analyste en sécurité. Il s'agit d'un compte anglophone, créé en 2022. En quelques heures, sa publication cumule plus de 60 000 vues et quelque 300 partages, parfois en langues étrangères : arabe, japonais, suédois et portugais notamment. Des signaux devenus caractéristiques d’une volonté d’amplification sur les réseaux. Au-delà des réseaux sociaux, cette vidéo va également être reprise par la junte militaire au pouvoir au Niger. En effet, le Conseil national pour la sauvegarde de la patrie (CNSP) l’a publié sur sa chaîne WhatsApp officielle. Un canal crée à l’origine, selon le CNSP, pour « ». Le commentaire incite les membres du groupe à partager cette infox : « » Précision importante, la junte ne se contente pas de partager la vidéo mais diffuse un montage sur lequel a été ajouté en surimpression un récit diffusé quelques jours plus tôt. Il s’agit de la prise de parole de Vincent Crouzet, un ancien de la DGSE, le service d’espionnage extérieur français, SUR LA CHAÎNE DE TÉLÉVISION LCI LE 26 SEPTEMBRE 2023 https://www.youtube.com/watch?v=EG_gwnaXq6Q&t=206s. Celui qui se présente aujourd’hui comme un romancier et qui ne représente en rien la DGSE, affirme devant les caméras « ». Une maladresse pour les uns, une révélation pour les autres, cette citation suscite un tollé à Niamey et ailleurs. L’occasion est alors trop belle pour la junte. Après un montage, l’image de cette intervention apposée à la vidéo des Français qui forment des unités sahéliennes est utilisée pour appuyer le narratif selon lequel la France armerait et entraînerait les terroristes dans la région. Un récit fallacieux utilisé pour alimenter le sentiment anti-français.


Les citoyens slovaques sont appelés aux urnes ce samedi 30 septembre 2023 pour les élections législatives anticipées. Un scrutin important pour l’avenir du pays, tiraillé entre politiques pro-occidentales et rapprochement avec la Russie. La présidente slovaque, Zuzana Caputova, a condamné un climat de « haine » avant le vote. Une colère notamment alimentée par une vague de fausses informations. « » à l’approche du vote. C’est le constat dressé par Peter Duboczi, rédacteur en chef de L’ORGANISATION SLOVAQUE INFOSECURITY https://infosecurity.sk/, qui traque les manipulations en ligne. Sur Telegram, Facebook ou encore WhatsApp, les électeurs sont confrontés quotidiennement aux infox. L'organisation à but non lucratif Reset, basée à Londres, affirme avoir enregistré plus de 365 000 messages de désinformation liés aux élections sur les réseaux sociaux slovaques au cours des deux premières semaines de septembre. Une désinformation massive qui infuse depuis plusieurs années dans le pays, selon Jana Vargovčíková, chercheuse à l’Inalco et spécialiste de la Slovaquie : « » Les réseaux sociaux ne sont pas les seuls vecteurs de cette machine à infox. « », explique la chercheuse. ROBERT FICO, FIGURE DE LA DÉSINFORMATION POLITIQUE Le symbole de cette utilisation politique des fausses informations, c’est notamment LE FAVORI DE L’ÉLECTION, ROBERT FICO https://www.rfi.fr/fr/podcasts/européen-de-la-semaine/20230923-fico. L’ancien Premier ministre de 2006 à 2010 et de 2012 à 2018, fin stratège, espère bien retrouver son siège à la tête du gouvernement. Pour accomplir sa mission, le leader du parti populiste Smer-SD n’hésite pas à agiter le spectre d’une élection truquée, sans apporter aucune preuve. Un discours dangereux car « », note Jana Vargovčíková. Une stratégie qui ne l’empêche pas pour autant de caracoler en tête des sondages avec 20% d’intention de votes, devant le parti social-libéral et pro-européen du vice-président du Parlement européen Michal Šimečka, Slovénie Progressiste (PS, RE) et ses 17%. UN SCÉNARIO VU ET REVU Le récit d’une élection truquée d'avance est devenu un discours à la mode à travers le monde, particulièrement chez les candidats populistes qui suivent les pas de Donald Trump aux États-Unis. On retrouve par la suite ce narratif propagé dans de nombreuses publications sur les réseaux sociaux. C’est par exemple le cas d’une publication partagée sur Facebook, qui affirme que les élections municipales slovaques de 2022 ont été manipulées, et que les législatives vont subir le même sort. L’auteur du post pointe du doigt une société, nommée ESET, spécialisée dans la sécurité informatique. Vérification faîte PAR NOS CONFRÈRES DU MÉDIA DEMAGOG.SK https://demagog.sk/podozrenia-z-manipulacie-volieb-su-vymyslene, aucune preuve d’une manipulation à grande échelle des élections municipales de 2022 n’a été constatée. De plus, l’Office national des statistiques slovaque, chargé de l’organisation des élections, n’utilise aucun des services de cette firme depuis au moins trois ans. Une infox similaire AVAIT CIRCULÉ EN FRANCE LORS DE L’ÉLECTION PRÉSIDENTIELLE https://www.rfi.fr/fr/podcasts/les-dessous-de-l-infox-la-chronique/20220325-présidentielle-française-l-intégrité-de-l-élection-ciblée-par-les-infox avec comme bouc émissaire l’entreprise Dominion qui, en réalité, n'opérait pas en France. Cette même société de machines à voter avait aussi été visée par des infox aux États-Unis. La chaîne de télévision conservatrice Fox News a même fini par VERSER 800 MILLIONS DE DOLLARS À DOMINION https://www.rfi.fr/fr/amériques/20230418-états-unis-fox-news-va-verser-800-millions-de-dollars-pour-éviter-un-procès-en-diffamation pour éviter un procès en diffamation suite à des accusations fallacieuses répétées en direct. L’OMBRE DE LA RUSSIE Les manipulations informationnelles en Slovaquie ne se limitent pas à la sphère politique locale. La désinformation, dans ce pays de 5,4 millions d’habitants, sert aussi les intérêts géopolitiques d’autres pays. « », explique Jana Vargovčíková. Les analystes pointent du doigt trois partis qui avancent de fausses allégations anti-ukrainiennes et pro-russes : le parti Smer-SD de Robert Fico, le parti nationaliste Republika et le Parti national slovaque (SNS). Certaines infox sont également directement attribuées à l'ambassade de Russie en Slovaquie, très active sur les réseaux sociaux. Cette désinformation est une façon pour la Russie d’essayer de polariser la société slovaque, de décrédibiliser les institutions en place et de pousser les électeurs dans les bras de candidats favorables à la politique de Vladimir Poutine et à son invasion de l’Ukraine.


Après la vague de migrants qu’a connue la petite île italienne de Lampedusa au début du mois, un déferlement de contenus hostiles, à coup d'infox, circulent sur les réseaux sociaux. Une désinformation destinée tout à la fois à rejeter l’accueil des migrants subsahariens en Europe et aussi à décrédibiliser l’action des ONG qui leur viennent aide. L’une des vidéos les plus symboliques de cette désinformation a été postée quelques heures après l’arrivée de près de 8 000 migrants sur l’île. La séquence dure quarante-cinq secondes, on y voit des jeunes femmes danser avec des migrants. Ce sont des bénévoles qui apparaissent à l’écran. Elles viennent en aide à des ressortissants subsahariens au rythme d’une sono. Cette vidéo en a fait sourire certains, avec des commentaires un brin moqueur mais il faut noter qu’elle a été visionnée plus de 3 millions de fois, rien que sur Twitter. Cette vidéo est reprise essentiellement par des comptes proches de l’extrême droite européenne, au premier rang desquels le compte X, anciennement Twitter, de Paul Golding, le leader du parti d’extrême droite britannique : « ». Il commente la vidéo, et qualifie les ONG de « » et appose, en légende, le hashtag #Lampedusa. RÉCUPÉRATION POLITIQUE À l’évidence pourtant, cette scène n’a pas été tournée à Lampedusa. On pouvait s’en douter, car on sait que la météo était très bonne en Méditerranée centrale, le jour de l’arrivée des migrants, (le 13 septembre 2023) et même dans les jours qui ont suivi. Sur les images, on constate pourtant que le ciel est bas, qu’il fait gris et que la végétation par ailleurs n’est absolument pas méditerranéenne. Cela ne correspondant pas avec ce qu’on pourrait trouver à Lampedusa. On se trouve donc face à un cas de manipulation dans lequel les sympathisants de la sphère d’extrême droite ont surtout profité de l’évènement pour diffuser des messages haineux, de la propagande et un narratif correspondant à leurs objectifs politiques, tout en surfant sur l’émotion suscitée par l’arrivée en masse de ces migrants à Lampedusa. D’OÙ VIENT CETTE VIDÉO ? Dès le lendemain de sa publication, Paul Golding, écrit finalement qu' Effectivement, à y regarder de près, on s’aperçoit que les bénévoles portent des chasubles sur lesquels on peut lire « CALAIS 4 CARE ». Il s’agit d’une organisation caritative gérée par des bénévoles qui fournit une aide et un soutien essentiels aux réfugiés vivant au Royaume-Uni, dans le nord de la France et en Belgique mais pas à Lampedusa. Sur leur site internet on peut lire « ». On imagine bien que ce n’est pas le genre de discours apprécié par Paul Golding et ses militants. Si on procède à une recherche inversée, on s’aperçoit que cette vidéo a déjà été publiée le 25 août 2023 par le parti d’extrême droite, qui brandissait le même d’argument pour dénigrer l’action des ONG. Elle n'a donc aucun rapport avec les événements récents survenus à Lampedusa. Cette vidéo n'est pas la seule à avoir été sortie de son contexte pour alimenter le sentiment anti-migrants. Nos confrères des Observateurs de France 24 ont mené l'enquête sur UNE FLOPÉE D’INTOX AUTOUR DE LA SITUATION MIGRATOIRE À LAMPEDUSA https://observers.france24.com/fr/europe/20230918-intox-fake-lampedusa-italie-immigration-europe.


Au Niger, la désinformation bat son plein depuis le coup d’État du général Abdourahamane Tiani le 26 juillet 2023. Sur les réseaux sociaux, de nombreuses infox circulent pour inventer de nouveaux soutiens militaires au pays. La dernière en date concerne la Corée du Nord, au moment même où son leader, Kim Jong-un, rencontrait Vladimir Poutine en Russie. Kim Jong-un aurait-il menacé de détruire tout pays voulant s’attaquer au Niger ? C’est faux, mais c’est pourtant ce que prétend, à tort, une vidéo publiée sur les réseaux sociaux ces derniers jours. Durant trente secondes, on y voit le leader nord-coréen, entouré de plusieurs hauts gradés, en train de tenir un discours devant ses troupes. Le son original, en coréen, est couvert par une voix robotique présentée comme étant la traduction des propos de Kim Jong-un. Cette vidéo trompeuse circule beaucoup depuis sa mise en ligne. Elle cumule aujourd’hui plus d’un millions de vues, rien que sur TikTok, et a dépassé les frontières du réseau social chinois. UNE TRADUCTION FALSIFIÉE En réalité, Kim Jong-un n’a jamais tenu ces propos. La traduction est totalement fausse, cette voix française ne correspond pas du tout à ce que dit le leader nord-coréen. On le sait car on a retrouvé la vidéo originale dont a été tiré l’extrait de cette publication. C’est l’Agence France Presse qui l’a publié SUR SA CHAÎNE YOUTUBE LE 26 AVRIL 2022 https://www.youtube.com/watch?v=aSvhhEFTdU4, soit bien avant le coup d’État du général Abdourahamane Tiani. Sur cette vidéo, on retrouve bien la traduction authentique du discours de Kim Jong-un. Elle est même retranscrite directement sur l’image. Ce que l’auteur de l’infox prend soin de ne pas afficher sur sa publication. Dans ce discours, Kim Jong-un avertit qu'il pourrait utiliser son arsenal nucléaire si les « » de son pays étaient menacés. Une intervention offensive, en conclusion d'une importante parade militaire, dans laquelle il ne parle à aucun moment ni du Niger, ni de la Cédéao ni même de l’Afrique. UNE INFOX NÉE SUR TIKTOK D’après nos recherches, c’est un compte TikTok récent, mais très populaire qui est à l’origine de cette manipulation. Il comptabilise, ce vendredi 15 septembre 2023, 180 000 abonnés et près d’un million de mentions « j’aime » sur ses contenus. En les analysant, on réalise que la majorité de ces vidéos sont des infox, plus ou moins faciles à repérer. L’une des plus populaires prétend par exemple que des missiles russes Satan 2 auraient été livrés au Niger. Nos confrères des Observateurs de France 24 ont mené l’enquête. Conclusion, LES IMAGES MONTRENT LE TRANSPORT DE CUVES DE STOCKAGE https://observers.france24.com/fr/afrique/20230818-non-cette-vidéo-ne-montre-pas-des-missiles-balistiques-russes-au-niger de carburant en République du Congo et non pas des missiles au Niger. S’il est impossible de savoir précisément qui se cache derrière ce compte, ses intentions, elles, sont plutôt claires. Ces publications s’attaquent toujours à la Cédéao ou à la France et font au contraire l’éloge de la Russie et du groupe Wagner.


La colère est toujours là en République démocratique du Congo, neuf jours après la violente répression de la manifestation contre la Monusco à Goma. Une cinquantaine de personnes ont été tuées. Six militaires, dont deux officiers supérieurs, sont devant la justice. Un contexte particulièrement propice à la désinformation, à l’image d’un audio du président français généré par l'intelligence artificielle, devenu viral sur WhatsApp. Emmanuel Macron aurait-il réagi à la répression meurtrière d'une manifestation à Goma le 30 août 2023, dans une interview accordée à France 24 ? C'est ce que prétend, à tort, une vidéo apparue sur les réseaux sociaux en début de semaine. On y entend une voix, présentée comme celle du président français, par-dessus les images de soldats congolais en train d'empiler des cadavres dans un camion. Un montage relativement court, une minute et trente-et-une secondes, dans lequel cette voix s’attaque à Kabila, puis à Félix Tshisekedi et à son parti, l’UDPS : « . » UN AUDIO GÉNÉRÉ PAR L’INTELLIGENCE ARTIFICIELLE En réalité, Emmanuel Macron n’a jamais tenu ces propos, ni sur France 24, comme essaye de le faire croire le logo apposé sur la vidéo, ni ailleurs. Cette voix a été générée par une intelligence artificielle. C’est ce que l’on appelle un deep voice, une version sonore du deep fake. Pour se rendre compte de cette manipulation, il suffit de comparer la voix de cette vidéo, à la voix originale d’Emmanuel Macron. Voici l’extrait d’une véritable interview du chef de l’État sur notre antenne le 23 juin 2023. Voici cette fois la voix artificielle présentée, à tort, comme celle d'Emmanuel Macron. Avec cette comparaison, on remarque que l'intonation, le grain de voix et le rythme ne correspondent pas à la voix d'Emmanuel Macron. Nous avons passé cet audio au crible d’un outil de détection de deep voice. Le résultat confirme les soupçons. Bien que relativement bas de gamme, ce montage a beaucoup circulé sur TikTok et les groupes WhatsApp locaux, comme nous l’a confirmé notamment notre correspondant sur place, Patient Ligodi. MANIPULATION EN CONTEXTE ÉLECTORAL L’objectif de cette manipulation est de s’attaquer au régime de Félix Tshisekedi, dans un moment politiquement sensible, à quelques mois seulement de l’élection présidentielle prévue le 20 décembre 2023. C’est aussi un moyen d’alimenter le sentiment anti-gouvernement français, en présentant cet audio comme une nouvelle ingérence de la France dans les affaires politiques d’un pays africain. Les nombreux commentaires qui accompagnent cette infox sur les réseaux montrent que cela fonctionne. UN PROCÉDÉ À LA MODE Ce n’est pas la première fois qu’un montage de la voix d’Emmanuel Macron circule sur les réseaux sociaux. Le dernier en date remonte au mois d’août 2023 et concernait la Guinée. Cette fois, on croyait entendre Emmanuel Macron en train d’échanger avec le colonel Mamady Doumbouya, à propos d’un prétendu plan pour inculper son principal opposant politique. Après vérification, CET ENREGISTREMENT ÉTAIT UN FAUX https://factuel.afp.com/doc.afp.com.33QB37K. En juin, un internaute affirmait révéler une conversation secrète d'Emmanuel Macron évoquant sa stratégie pour déstabiliser le Mali. Là encore, il s’agissait d’un montage, ÉPINGLÉ PAR NOS CONFRÈRES DE FRANCE 24 https://observers.france24.com/fr/afrique/20230621-un-montage-audio-fait-croire-à-un-plan-secret-d-emmanuel-macron-au-mali.