Episodios

  • Pays de l’AES: la réalité derrière les images de logements flambant neufs
    Jul 4 2025

    Dans les pays de l’Alliance des États du Sahel, les politiques de construction de logements font régulièrement l'objet de fausses informations. Au Burkina Faso, au Mali et au Niger, ces infox voudraient faire croire que d'innombrables quartiers d'habitations luxueux seraient sortis de terre depuis les coups d'État. Le mode opératoire consiste à diffuser des images sorties de leur contexte, en affirmant, à tort, qu’elles auraient été filmées au Sahel.

    Le dernier exemple en date concerne le Burkina Faso. Une vidéo, mensongère, vue plus de 4 millions de fois sur les réseaux sociaux, prétend montrer la construction récente de centaines de logements neufs dans le pays. Durant onze secondes, on y voit des immeubles luxueux, à perte de vue. « Ce ne sont pas les États-Unis, mais le Burkina Faso », indique, à tort, une voix anglophone dans la bande son. Les comptes à l’origine de cette vidéo, parlent de « maisons distribuées gratuitement par le capitaine Ibrahim Traoré aux citoyens burkinabés ».

    Vérification faite, ces images n’ont absolument rien à voir avec le Burkina Faso.

    Un projet immobilier en Chine

    Pour géolocaliser cette vidéo, nous avons d’abord effectué plusieurs recherches par image inversée. Cela nous a permis de retrouver le même extrait diffusé par des comptes asiatiques. La légende parle d’un projet immobilier baptisé « Jinan's Ma Shan New Village », en Chine, dans le centre Ouest de la province du Shandong.

    En parcourant la zone sur des outils de cartographie satellite, comme Google Earth ou Yandex Maps, on retrouve bien nos immeubles, construits au nord de la localité de Feicheng. La vidéo a donc été filmée à 11 000 km du Burkina Faso.

    Un mode opératoire à la mode

    Ce type d’infox se compte par dizaines ces derniers mois. Des images de projets immobiliers du monde entier, de l’Algérie, aux États-Unis, en passant par le Maroc, sont sorties de leur contexte et diffusées au Sahel avec des légendes mensongères. Le phénomène concerne aussi d’autres types d’infrastructures, comme des gares, des ponts ou des stations de métro.

    Ce mode opératoire est particulièrement populaire au Mali et au Burkina Faso. Pour cause, ces infox sont simples à fabriquer, elles deviennent souvent virales et sont, à l’inverse, parfois difficiles à vérifier.

    Un écosystème de comptes de propagande à la manœuvre

    À l’origine de cette désinformation, on retrouve tout un écosystème de comptes actifs sur Facebook, X, WhatsApp et TikTok. Ce réseau d’influence, déjà impliqué dans plusieurs campagnes de désinformation régionales, diffuse quotidiennement la propagande des pouvoirs en place dans l’AES. Les indicateurs de viralité montrent que leurs contenus touchent une large audience.

    Dans les faits, des projets de construction de logements existent dans les pays de l’AES. Au Burkina Faso par exemple, le gouvernement a pour ambition de construire 50 000 logements à travers le pays d’ici à 2029. À ce stade, on ne sait pas combien ont été construits ni à quel prix ils seront vendus. Pour autant, les vidéos qui circulent en ligne sont loin de la réalité.

    Más Menos
    3 m
  • Israël-Iran: l’intelligence artificielle renforce la désinformation au Sénégal
    Jun 27 2025

    Alors que le cessez-le-feu déclaré mardi 24 juin semble tenir entre l’Iran et Israël, le conflit qui a opposé les deux ennemis jurés se poursuit toujours sur les réseaux sociaux. Une véritable bataille informationnelle se joue en ligne, sur tous les continents. Au Sénégal, la désinformation autour de cette guerre au Moyen-Orient sème le trouble, et polarise l’opinion publique. Un phénomène amplifié par des infox toujours plus crédibles grâce à la démocratisation de l’intelligence artificielle.

    C’est notre rédaction en langues locales à Dakar qui a lancé l’alerte. À en croire une vidéo diffusée sur Facebook et TikTok, une manifestation historique en soutien à la cause iranienne aurait eu lieu au Sénégal ces derniers jours. Durant exactement huit secondes (information importante), on y voit une foule de personnes à perte de vue, réunie sur un boulevard, en centre-ville. Certains portent des drapeaux iraniens ou sénégalais. En tête de cortège, un homme scande un slogan en wolof : « Senegal moy iran, Iran moy Senegal », « L’Iran, c'est le Sénégal, le Sénégal, c'est l’Iran » en français. Cette formule est reprise par des centaines d’internautes.

    En réalité, cette manifestation n’est pas réelle. Cette vidéo, vue plus d’un million de fois, a été entièrement générée par intelligence artificielle. Aucune manifestation pro-iranienne de cette ampleur n’a eu lieu au Sénégal. Visuellement, plusieurs indices mettent la puce à l’oreille. La foule est beaucoup trop compacte et le boulevard est trop large. Certaines pancartes sont également illisibles. Un drapeau du Sénégal est aussi mal représenté. L’étoile verte au centre est remplacée par une sorte de croix noire.

    En zoomant sur l’image, on remarque, de plus, plusieurs incohérences au niveau des yeux et de la bouche de certains manifestants.

    Une vidéo décontextualisée

    En cherchant l’identifiant TikTok visible sur certains extraits, nous avons retrouvé le premier compte qui a diffusé cette vidéo. Dans sa biographie, il se décrit comme un « créateur de contenu artificiel ».

    Nous l’avons contacté et il confirme que c’est bien lui qui a généré ce clip. Certains utilisateurs mal intentionnés ont partagé sa vidéo sans mentionner l’utilisation de l’IA, à des fins de désinformation.

    Polarisation et tensions

    Les débats dans l’espace commentaire de ces publications montrent que ces fausses informations participent à la polarisation de l’opinion publique sénégalaise sur le soutien ou non à la cause iranienne. Certains utilisateurs, trompés par cette vidéo artificielle, se félicitent pour la tenue de cette fausse manifestation : « Je suis fier d’être sénégalais ! Soutien total à l’Iran ! ».

    D’autres, au contraire, pointent la nécessité de rester neutre : « Ce conflit au Moyen-Orient ne nous concerne pas. Notre devoir est de souhaiter la paix. Prendre position peut jouer en notre défaveur. Ce n’est pas notre guerre ». Cette désinformation alimente également les tensions religieuses et communautaires.

    Démocratisation des outils d’IA génératives

    Cet exemple montre une nouvelle fois les dangers de la démocratisation des outils d’intelligence artificielle. Cet utilisateur explique avoir utilisé la version professionnelle de Google Veo III. Cette intelligence artificielle de l’Américain Google, permet de générer, en quelques clics, des vidéos de huit secondes maximum, très réalistes, avec une bande son intégrée. L’abonnement est payant, aux alentours de 43 € par mois, mais il existe des moyens plus ou moins légaux de s’en servir gratuitement. Le rendu est tellement bluffant que certains détecteurs d’IA tombent dans le panneau.

    Pour ne pas se faire avoir face à ce type de contenu, le meilleur conseil consiste à regarder attentivement les visages, les logos ainsi que les éléments textuels. Même si les outils d’IA s’améliorent de jour en jour, certains ont du mal à représenter des panneaux, des devantures de magasin ou des drapeaux par exemple. L’image et les couleurs sont aussi souvent trop parfaites, trop lisses. Enfin, il faut aussi analyser le contexte et croiser les sources. Dans notre cas, si une telle manifestation avait eu lieu, la presse sénégalaise et internationale en aurait forcément parlé.

    Más Menos
    3 m
  • Israël-Iran: une guerre des images propice à la désinformation
    Jun 20 2025

    Au Moyen-Orient, les frappes se poursuivent entre Israël et l’Iran, au huitième jour du conflit. Cette guerre sanglante se joue sur le terrain, mais aussi en ligne, sur les réseaux sociaux. D’un côté comme de l'autre, des comptes de propagande diffusent massivement des fausses informations. Tous les moyens sont bons pour gagner cette bataille numérique.

    Depuis le début du conflit qui oppose Tel Aviv et Téhéran, les contenus générés par intelligence artificielle se multiplient sur les réseaux sociaux, à tel point que certaines images synthétiques cumulent plus de vues que des photos authentiques, prises sur le terrain.

    L’un des exemples marquants est une vidéo aérienne censée montrer une ville israélienne endommagée suite aux frappes iraniennes. Durant 16 secondes, on y voit un quartier résidentiel totalement détruit. « Cette vue n’est pas à Gaza, mais dans le sud de Tel Aviv », commentent, à tort, les internautes qui la partagent en ligne.

    Vérification faite, ces images ne proviennent ni d’Israël, ni de Gaza ou même d’Iran puisqu'elles ont été entièrement générées par intelligence artificielle. Le détecteur d’IA que nous avons utilisé indique que c’est le générateur Mochi 1 qui serait à l’origine de ces images.

    Cet outil à la côte, car il est bon marché, entre 0 et 50 centimes seulement par vidéo, et parce que les résultats sont relativement bluffants. Une recherche par mots-clés nous a, de plus, permis de retrouver le compte à l’origine de ce clip vu plusieurs millions de fois. La date de publication indique le 28 mai 2025, soit avant les affrontements entre Israël et l’Iran.

    Flot d’images détournées

    À cela s’ajoutent aussi d’innombrables contenus sortis de leur contexte. Des images prises en Ukraine, au Liban ou même en Géorgie sont recyclées pour désinformer sur la situation au Moyen-Orient. Le dernier exemple en date est une vidéo impressionnante, censée montrer une pluie de missiles iraniens tombant en Israël.

    On y voit une dizaine de boules incandescentes tomber du ciel en pleine nuit. Grâce à une recherche par image inversée, on sait qu’il s’agit dans les faits de débris d’une fusée Space X, détruite lors de son ascension en janvier 2025, bien loin du Moyen-Orient. L’infox cumule plus de 3 millions de vues, rien que sur X.

    Jeu vidéo vs réalité

    L’autre mode opératoire, visible lors de chaque conflit, consiste à détourner des images issues de jeux vidéo. Ces clips spectaculaires issus de plateforme de simulation militaire ultra-réaliste pullulent sur les réseaux sociaux ces derniers jours. On retrouve notamment une vidéo censée montrer un avion de chasse israélien abattu par un missile anti-aérien iranien.

    Problème, cet enregistrement, vu plus de 15 millions de fois, provient en réalité du jeu War Thunder. On retrouve le clip en question sur une chaîne YouTube avec la mention « contenu de jeu vidéo diffusé à des fins de divertissement ».

    Pour s’en rendre compte, les experts conseillent d’observer avec attention les flammes, la dissipation des fumées ainsi que les explosions qui ne collent pas avec la réalité. Il faut également écouter attentivement le son, trop propre, trop parfait. Ces clips ne sont d'ailleurs jamais partagés par des sources de confiance.

    Ces éléments, cumulés à une recherche par image inversée (voir ici comment faire), permettent de ne pas tomber dans le panneau face à ces vidéos inauthentiques, souvent plus virales que les vraies images de cette guerre.

    Más Menos
    3 m
  • Émeutes à Los Angeles: images artificielles et mauvaises interprétations sèment la confusion
    Jun 13 2025

    Depuis vendredi dernier, Los Angeles, la deuxième ville des États-Unis, est en proie à des heurts parfois violents qui opposent des manifestants aux forces de l’ordre. Un couvre-feu a été imposé en début de semaine pour tenter de mettre fin aux pillages. Quelque 700 marines, ont été appelés en renforts, rejoignant 4 000 militaires réservistes de la Garde nationale. Un déploiement de force dénoncé par les autorités locales qui parlent d’un abus de pouvoir de la part de Donald Trump.

    Depuis quelques jours, confusion et fausses informations entourent les évènements de Los Angeles. Parfois, ce sont les agents conversationnels, comme ChatGPT ou Grok qui viennent semer le trouble. Ainsi, deux photos ont retenu notre attention. Elles ont provoqué une passe d'arme sur les réseaux sociaux. Il s'agit d'images montrant des soldats américains allongés sur le sol, en train de dormir les uns contre les autres, dans ce qui semble être un poste de sécurité et le sous-sol d’un bâtiment.

    Ces photos ont été vues des centaines de milliers de fois, rien que sur le réseau X, et elles ont été partagées par le compte du gouverneur démocrate de Californie Gavin Newsom qui s’est opposé à Donald Trump à propos du déploiement de l’armée dans les rues de Los Angeles.

    Le compte personnel de Gavin Newsom représente 2,2 millions de followers. Dans un commentaire, il dénonce les conditions déplorables dans lesquelles les soldats seraient logés et il s’adresse directement à Donald Trump, il écrit je cite : « Vous avez envoyé des troupes ici, sans carburant, sans nourriture et dans l'endroit pour dormir, s'il y en a un qui manque de respect à notre armée, c'est bien vous ».

    Polémique sur les réseaux sociaux

    Ces images sont-elles réelles ? Cette question, beaucoup d’utilisateurs d’internet se la sont posée. Ils en sont remis à l’avis de Grok, (l’IA d'Elon Musk) et ils ont interrogé Chat GPT. Juste après le partage de ces images, ces agents conversationnels ont affirmé que « ces images semblaient montrer le retrait des soldats américains d’Afghanistan à l’aéroport de Kaboul durant l’été 2021 ».

    Après vérification, ce n'est pas le gouverneur de Californie qui a menti, mais c’est l’IA qui s’est trompée : ces images sont bien réelles, elles ont bien été prises à Los Angeles et publiées par un journal local sérieux, le San Francisco Chronicle dans son édition du 9 juin. La rédaction assure qu’elle a obtenu ces deux clichés en exclusivité, et qu’ils montrent des soldats en train de se reposer dans différents immeubles fédéraux qu’ils sont chargés de protéger…

    L'IA prise en défaut

    Une recherche par image inversée permet d’établir que ces photos n’ont jamais été mises en ligne avant le 9 juin dernier, donc elles ne peuvent pas avoir été publiées il y a quatre ans lors du retrait d’Afghanistan.

    Donc attention, Grok ou ChatGPT ne sont pas des outils de fact checking, même si la tendance des utilisateurs est d’y avoir recours dès qu’ils se posent des questions sur l’authenticité d’un contenu. Les résultats de recherche menés par les IA changent au fil du temps, en fonction des références sur lesquelles ces outils peuvent s’appuyer pour fournir des réponses.

    De vrais exemples d'Infox

    Avec des images générées par IA, comme celle de « Bob ». Ce soldat américain censé avoir été déployé pour protéger Los Angeles. Il se filme dans la ville en mode « portrait » et répand des fausses informations. Ces images ont fait le tour des plateformes, mais il s’agit en fait d’un personnage entièrement créé par des outils d’intelligence artificielle.

    À bien observer la vidéo, on peut noter certaines incohérences comme le grade du soldat qui ne correspond à rien de connu, les couleurs des feux de circulations à l’arrière-plan, ou encore les lettres « LAPC » sur une voiture de police alors que c’est « LAPD », Los Angeles Police Département, qui est inscrit en lettre noire sur fond blanc, sur les véhicules de police de la ville.

    Más Menos
    4 m
  • Russie: la désinformation s’intensifie après l’attaque de drones ukrainiens
    Jun 6 2025
    Avec son opération clandestine, baptisée « Toile d’araignée », l’armée ukrainienne a détruit au moins une quinzaine d’appareils russes, dont plusieurs bombardiers stratégiques, dimanche 1er juin. Un raid historique autour duquel la désinformation bat son plein sur les réseaux sociaux. Côté ukrainien, certains comptes détournent des images pour surévaluer les dégâts. Côté russe, la désinformation sert à sauver la face et faire monter la tension. Quelques heures seulement après l’annonce du raid ukrainien sur des aérodromes militaires russes, des comptes habitués à diffuser la propagande du Kremlin ont inondé les réseaux sociaux avec un message relativement inquiétant : « La Russie aurait placé ses forces nucléaires en état d’alerte maximale ». Des utilisateurs parlent, à tort, de « l’ouverture des silos contenant des missiles stratégiques et du déplacement d’unités mobiles ». Un niveau de préparation « jamais vu depuis la crise des missiles de Cuba », à en croire ces nombreuses publications.Concrètement, ce narratif mensonger repose sur de prétendus témoignages non sourcés ainsi que sur une vidéo de 49 secondes vue plus de 10 millions de fois cette semaine. Filmée de nuit, on y voit une colonne de lanceurs Yars, entourée de véhicules de police progressant sur une autoroute civile.Ces systèmes de missiles balistiques intercontinentaux mobiles sont capables de lancer plusieurs têtes nucléaires avec une portée estimée à 10 000 km. Cela fait dire à certains que le raid ukrainien pourrait faire basculer le monde.Préparation pour le défilé du 9 mai 2024Vérification faite, cette vidéo n’a rien à voir avec l’attaque récente de drones ukrainiens sur des bases russes. Grâce à une recherche par image inversée (voir ici comment faire), nous avons retrouvé d’où provient exactement cette vidéo. Elle a été diffusée par le ministère russe de la Défense sur Telegram, le 27 février 2024.La légende parle de l’arrivée des lanceurs Yars à Alabino, près de Moscou, dans le cadre de la préparation du traditionnel défilé militaire du 9 mai, pour l’édition 2024. Aucun rapport donc avec le raid ukrainien du dimanche 1er juin 2025.Le déni russeAu-delà d’agiter la menace nucléaire pour faire diversion sur le coup dur porté à l’aviation stratégique russe, des comptes de propagande vont même jusqu’à nier l’existence des destructions. Pour y parvenir, certains partagent des images satellites antérieures à l’attaque, en les présentant, à tort, comme des clichés récents, post-frappe. Un récit démenti par l’analyse des informations en sources ouvertes, menée par la cellule Info Vérif de RFI, et qui permet de documenter avec certitude la perte d’au moins 15 appareils russes.Surévaluation des dégâtsCes images sorties de leur contexte sont loin d’être les seules à circuler sur les réseaux sociaux ces derniers jours. Certains comptes pro-ukrainiens ont par exemple diffusé une vidéo censée montrer la destruction d’une usine de composants de missile près de Moscou.On y voit bien une vaste explosion, sauf que ces images, vues plusieurs millions de fois, sont anciennes. Elles datent en réalité de 2023 et montrent un navire de guerre russe frappé par des missiles de croisière ukrainiens lors d'une attaque nocturne en Crimée.Toujours dans le but de surévaluer les dégâts, certains utilisateurs partagent également des vidéos issues de jeu vidéo ou générées par intelligence artificielle.À lire aussiAttaque de drones ukrainiens en Russie: attention à ces images artificiellesDésinformation et brouillard de guerreComme à chaque grande opération militaire, le brouillard de la guerre facilite la diffusion d’images sorties de leur contexte ou générées par intelligence artificielle. À cela s’ajoutent des modes opératoires toujours plus complexes. Plusieurs fausses images satellites difficilement détectables ont, par exemple, fait leur apparition en ligne.Une fois devenues virales, ces infox alimentent les tensions, perturbent les perceptions du conflit et invisibilisent les vraies images de la guerre.
    Más Menos
    3 m
  • Le faux crash d'un avion de pèlerins mauritaniens sème le trouble avant le Hajj
    May 30 2025

    Le Hajj, le pèlerinage des musulmans à la Mecque, débute mercredi 4 juin. L'année dernière, plus de 1,8 million de musulmans s'étaient rendus en Arabie saoudite pour l'occasion. Cette semaine, une fausse information a circulé à propos du crash d’un avion rempli de fidèles en provenance de Mauritanie. Compte tenu de l’émotion générée par cette infox, les autorités mauritaniennes ont dû publier un communiqué pour couper court à la rumeur et rétablir la vérité.

    Cette infox s’est répandue sur les réseaux sociaux, au Sahel, au Sahara, en Afrique du Nord et dans le monde arabo-musulman. On la trouve sur les principales plates-formes comme X, Facebook, ou TikTok. Sur les posts en questions, on peut lire : « un avion de pèlerins mauritaniens s’est écrasé en mer Rouge, faisant plus de 200 morts ». L’infox est généralement accompagnée d’images sorties de leur contexte, ou générées par IA.

    Compassion sur les réseaux sociaux

    L’infox est apparue le 27 mai. Elle a eu peu de retentissement en Europe, mais en Afrique de l’Ouest particulièrement puisqu'une multitude d’utilisateurs l’ont immédiatement commenté. C’est la rédaction en Mandenkan-Fulfude de RFI à Dakar qui a attiré notre attention sur ce sujet.

    Le site en ligne Senenews qui a fait un travail de vérification autour de cette fausse rumeur écrit : « la diffusion de fausses informations autour du Hajj est malheureusement courante à l’approche de la saison du pèlerinage, une période sensible où des millions de fidèles se rendent en Arabie saoudite. Ces fausses nouvelles jouent sur l’émotion collective pour générer du clic ou faire le buzz, au détriment de la vérité et de la sérénité des proches des pèlerins ». En pareils cas, la première chose à faire pour lever un doute est d’aller consulter des sites sérieux, comme des chaines nationales ou internationales, pour voir si elles parlent de ce crash.

    Images détournées

    Une observation attentive des images permet de ne pas se faire manipuler. Dans le cas présent, les images qui circulent sur les réseaux sont impressionnantes mais ne concordent pas avec ce qu’on pourrait découvrir sur le site d’un accident aérien, surtout si l’avion est tombé en mer.

    En effet, si on consulte de la documentation sur internet, on s’aperçoit qu’on ne retrouve le plus souvent que quelques débris flottant à la surface une fois que l’avion a percuté la mer. Les principales images qui circulent autour de cette infox montrent aussi des carlingues en feu. Sur le sol sont alignés des corps. Pour la première image, il s’agit visiblement d’une IA, et pour l’autre, d’une image sortie de son contexte.

    Nous avons noté des invraisemblances liées à la génération d’images par des outils d’intelligence artificielle. Par exemple des hublots carrés qui n’existent pas sur les avions de ligne actuels. Une recherche par image inversée nous a aussi permis de retrouver l’origine de l’image d’un avion dévoré par les flammes et photographié de face. Il s’agit d’un appareil cargo de fabrication russe, incendié en 2007 sur l’aéroport de Pointe-Noire au Congo et en aucun cas d’un avion de ligne mauritanien en 2025.

    Une affaire prise au sérieux par les autorités

    Dans un communiqué officiel, Mauritania Airlines a précisé que les rumeurs concernant ce crash circulant sur les réseaux sont totalement infondées. « Tous les pèlerins mauritaniens ont atterri en sécurité et aucun incident n’a été enregistré », a déclaré la compagnie. Les autorités mauritaniennes ont également démenti. Ces réactions officielles sont intervenues dans les heures qui ont suivi l’apparition de l’infox, sans pour autant stopper sa propagation.

    Más Menos
    4 m
  • Un sosie du pape Léon XIV sème le trouble sur les réseaux sociaux arabophones
    May 23 2025

    Léon XIV a donné le ton de son pontificat, dimanche 18 mai, au Vatican en dénonçant une économie qui exploite la nature et qui laisse de côté les plus pauvres. Ce mercredi, il a lancé un appel à Israël afin que l’aide humanitaire puisse entrer à Gaza. Des discours empreints d’humanisme alors que certains comptes sur les réseaux sociaux tentent de manipuler sa parole. Ainsi une infox en langue arabe veut laisser croire à des prises de position hostiles à l'islam de la part du nouveau pape.

    Dès son arrivée à la tête du Saint-Siège, le pape Léon XIV a été l’objet d’infox sur les réseaux sociaux. Une désinformation, plus ou moins grossière, visant la personne du pape, et les positions de l’Église, en lui attribuant des propos qu’il n’a jamais tenus. Parmi ses fausses déclarations, l’une a retenu notre attention.

    L’infox prend la forme de tweet sur X et de post sur Facebook rédigés en arabe, et laissant penser à tort que le nouveau pape a tenu des propos hostiles à l'islam. Dans une vidéo d’une dizaine de minutes, on le verrait « dénoncer une invasion de l’Europe par les musulmans » détaillant une soi-disant « stratégie visant à changer l’identité chrétienne du continent européen ». Après vérifications, le nouveau pape n’a jamais dit ça, que cela soit d’ailleurs avant ou après le début de son pontificat.

    Vidéo trompeuse

    Toutefois, la personne qui prononce ce discours ressemble beaucoup au pape Léon XIV. Donc tout d’abord, on a cherché à savoir si la vidéo n'avait pas été générée par un outil d’intelligence artificielle ? Le logiciel que nous avons employé nous a indiqué qu’il y avait 0% de chance pour que cette vidéo ait été fabriquée par l’IA. Donc a priori, nous ne sommes pas confrontés à un hypertrucage.

    Comme la ressemblance est vraiment frappante, nous avons ensuite utilisé un logiciel gratuit, permettant de détecter les sosies. Résultats : entre 49% et 55% de similarités entre le visage de l’homme qui apparait sur la vidéo et le portrait du pape Léon XIV. Pas suffisant pour en tirer des conclusions surtout que l’on sait que ces outils ne sont pas fiables à 100%.

    Le discours d'un prélat conservateur en 2016

    Une recherche par image inversée nous a permis de retrouver la trace sur YouTube d’une longue vidéo, dont la dernière partie correspond à l’extrait que l’on trouve dans l’Infox. La personne que l’on voit à l’écran est bien un homme d’Église : il s'agit de l’évêque d’Astana au Kazakhstan, Athanasius Schneider, connu pour ses prises de positions conservatrices. Il a fait ces déclarations sur cette « invasion de l’Europe », selon ses mots, lors d’une rencontre avec des fidèles filmée dans une petite église du New Jersey aux États-Unis, le 23 octobre 2016. On retrouve d’ailleurs des photos de son passage sur le site internet de la paroisse.

    Des invraisemblances décelables

    On est donc face à une infox utilisant une vidéo sortie de son contexte jouant sur une forte ressemblance entre ce dignitaire catholique et le pape Léon XIV, afin de marquer les esprits. Cela étant, si on s'attarde sur l’image, on voit que celui qui est présenté comme le pape, porte la soutane violette des évêques et non la grande tenue blanche du souverain pontife.

    L’audio donne aussi des indications. L’accent de Léon XIV est bien celui d’un natif des États-Unis, alors que l’anglais de l’évêque Schneider est plus hésitant. Enfin, toutes les déclarations publiques du pape sont disponibles sur le site officiel du Vatican. Si vous avez un doute, allez consulter le site, d’ailleurs le Vatican fait aussi du fact-checking comme ici.

    Más Menos
    4 m
  • Inde-Pakistan: les armes se taisent, pas la désinformation
    May 16 2025

    Après une escalade militaire ayant provoqué la mort de plus de 70 personnes, l’Inde et le Pakistan ont convenu d’un accord de cessez-le-feu le samedi 10 mai 2025. Si les armes se sont tues, la guerre de l’information, elle, se poursuit entre New Delhi et Islamabad. D’un côté comme de l’autre, des comptes de propagande continuent de diffuser massivement des fausses informations afin de présenter leur pays comme le vainqueur de cette confrontation.

    À l’instant où le cessez-le-feu aérien, terrestre et maritime a été annoncé, la bataille numérique entre l’Inde et le Pakistan n’a pas baissé en intensité. Au contraire, les comptes de propagande ont rapidement réorienté leurs narratifs autour de deux axes : la glorification de l’action de leur armée et l’humiliation de l’adversaire. Pour y parvenir, différents modes opératoires sont employés, du simple montage photo au deepfake sophistiqué.

    La guerre des deepfakes

    À ce jour, de nombreux politiques indiens et pakistanais en ont fait les frais, à commencer par le Premier ministre indien, Narendra Modi. Dans une vidéo d’une minute et treize secondes, on pense l’entendre présenter ses excuses, en hindi, au peuple indien : « Le Pakistan nous a complètement détruits. Notre économie s’effondre. Aucun investissement n’est à venir. Les marchés sont déserts. (...) Nous avons essayé de faire la guerre. Mais maintenant, nous réalisons que nous avons commis une grave erreur. Je présente mes excuses ». En réalité, Narendra Modi n’a jamais tenu ces propos.

    Cette vidéo a été générée via l’intelligence artificielle. L’analyse visuelle du mouvement de ses lèvres, ainsi que les détecteurs d’IA que nous avons utilisés, le confirment. C’est un deepfake, un hypertrucage audio et visuel. La voix du Premier ministre indien a été fabriquée de toutes pièces. À noter que le ministre des Affaires étrangères et le ministre de l’Intérieur indien ont également été ciblés par ce type de deepfake.

    Côté Pakistanais, c’est le porte-parole de l’armée qui en a été victime. En effet, une vidéo artificielle du général Ahmed Chaudhry a semé le trouble sur les réseaux sociaux. Durant une minute et trente-et-une secondes, on croit l’entendre reconnaître la perte de « deux avions Chengdu JF-17 ». Sauf qu’une nouvelle fois, il s’agit d’un deepfake. Ahmed Chaudhry n’a jamais prononcé un tel discours.

    L'extrait provient d’une conférence de presse de l’armée pakistanaise tenue le 27 décembre 2024, soit bien avant l’escalade militaire avec l’Inde. Quelqu’un a fourni ces images à une IA pour manipuler le discours du porte-parole de l’armée.

    La bataille des chiffres

    Cette infox ciblant le porte-parole de l’armée pakistanaise est le symbole de la guerre des chiffres qui se joue actuellement entre les deux pays. Chaque camp publie quotidiennement des bilans concernant les supposées destructions matérielles et humaines infligées à l’adversaire.

    Ces données sont impossibles à vérifier de façon indépendante à ce stade. Mais pour donner de la crédibilité à ces chiffres, la propagande pro-pakistanaise a détourné l’identité de plusieurs médias occidentaux. Une infographie avec le logo de CNN affirme par exemple que l’Inde aurait notamment perdu 6 avions de combats, 553 drones et un système de défense antiaérien S400. Sauf qu’en réalité, le média américain n’a jamais publié ce tableau comparatif.

    Contacté par le média de vérification, Logically Facts, un porte-parole de CNN, a confirmé que « cette image est fabriquée. CNN n'a jamais relayé cette information ».

    Dans la même veine, un article à la gloire de l’armée de l’air pakistanaise et attribué au Daily Telegraph circule ces derniers jours sur la toile. Mais là encore, c’est une fausse information. Le Daily Telegraph n’a jamais publié une telle information.

    Más Menos
    3 m