• Ukraine: Volodymyr Zelensky dans l’œil de la désinformation pro-russe
    Mar 7 2025

    Une semaine après l’altercation entre Donald Trump, JD Vance et Volodymyr Zelensky à la Maison Blanche, le contexte informationnel autour des relations entre les deux pays s’est particulièrement tendu. Énormément de fausses informations circulent sur les réseaux sociaux. Cible prioritaire de cette campagne de désinformation, le président ukrainien est attaqué de toutes parts, à tel point qu’il est difficile de distinguer le vrai du faux.

    Le dernier exemple de cette campagne de dénigrement est une vidéo montrant Volodymyr Zelensky dans une usine d’armement aux États-Unis. Accompagné de Josh Shapiro, le gouverneur de l’État de Pennsylvanie, on le voit signer le corps d’un obus de 155 mm. En commentaire, les utilisateurs qui partagent ces images écrivent : « avant d’avoir de la sympathie pour Zelensky, n’oubliez pas qu’il a signé, avec le sourire, des bombes destinées à être larguées sur des enfants dans la bande de Gaza ». Au total, ce récit a été vu plusieurs millions de fois ces derniers jours.

    Vérification faîte, ces images n’ont rien à voir avec la bande de Gaza. Ces obus signés par Volodymyr Zelensky étaient en réalité destinés à l’armée ukrainienne et non aux soldats israéliens. En effectuant une recherche avec les mots clés « Volodymyr Zelensky », « Josh Shapiro » et « Pennsylvanie », on retrouve cette vidéo publiée sur la chaine YouTube de l’Agence France Presse, le 23 septembre 2024.

    Le président ukrainien était en déplacement en Pennsylvanie où il a visité l’usine de munitions de l'armée de Terre de Scranton qui a fourni l’Ukraine en obus de 155 mm. Un compte-rendu détaillé de sa visite est disponible sur le site internet de la présidence ukrainienne.

    Volodymyr Zelensky en costume ?

    Largement commentée lors de sa visite à la Maison Blanche, la tenue du président ukrainien fait aussi l’objet de nombreuses rumeurs. Si Volodymyr Zelensky s’est engagé à ne plus porter de costume avant la fin de la guerre, certains affirment, photo à l’appui, qu’il aurait récemment dérogé à la règle lors d’une rencontre avec Klaus Schwab, le fondateur du Forum de Davos. « Voilà ce qui se passe quand on rencontre son vrai patron », commentent plusieurs utilisateurs adeptes des théories complotistes et de la propagande pro-russe.

    Sauf que là encore, cette image est sortie de son contexte. Une recherche par image inversée permet de retrouver l’origine de ce cliché. Il a été pris le 22 janvier 2020 lors de la 50ᵉ édition du forum économique. L’invasion à grande échelle de l’Ukraine par la Russie n’avait pas commencé, ce qui explique le costume porté par Volodymyr Zelensky.

    La propagande par l’humour

    Au-delà de ces infox, certains se servent aussi de l’humour pour dénigrer l’image du président ukrainien. Ces derniers jours, les vidéos de Volodymyr Zelensky, modifiées grâce à l’intelligence artificielle, se sont multipliées sur les réseaux sociaux. On peut le voir sur Fox News en train d’évoquer son addiction à la cocaïne, ou encore face à Donald Trump en train de proposer des actes sexuels contre de l’argent pour son pays.

    Si ces contenus sont pris au second degré, le message de fond, lui, n’a pas été choisi au hasard. Le narratif est toujours aligné sur ce que diffusent les propagandistes russes depuis maintenant plus de trois ans. L’analyse de la propagation de ces vidéos artificielles montre d’ailleurs l’implication directe d’acteurs déjà maintes fois identifiés comme des relais de la propagande du Kremlin.

    Show more Show less
    3 mins
  • Algérie: fausses rumeurs de coup d’État sur fond de lutte informationnelle régionale
    Feb 28 2025

    En Algérie, de fausses rumeurs de coup d’État circulent sur les réseaux sociaux. Plusieurs comptes affirment, à tort, que le régime d’Abdelmadjid Tebboune aurait été renversé par l’armée ce mardi 25 février. Cette fausse information, diffusée par des utilisateurs étrangers, est un nouvel exemple de la lutte informationnelle grandissante qui se joue dans la région.

    Cette rumeur s’est répandue en ligne ce mardi 25 février 2025 après la publication sur TikTok d’une série de vidéos par un compte pro-malien relativement influent, comptant près d’un million d’abonnés et plus de 6 millions de likes. L’homme, reconnaissable avec son béret rouge, se filme face caméra. Il annonce alors « un coup d’État en Algérie. Voici les images. Selon l’explication, le pouvoir algérien d’Abdelmadjid Tebboune a été renversé aujourd’hui à 4 h du matin ».

    Pour appuyer son récit, plusieurs images défilent derrière lui. On y voit des milliers de manifestants défilant sous des drapeaux vert et blanc, suivi d’une revue des troupes de la part du Général d'Armée algérien, Saïd Chanegriha. À en croire le commentaire, c’est lui qui aurait pris le pouvoir par la force. Vérification faîte, tout est faux.

    Aucun coup d’État à signaler

    Dans les faits, il n’y a pas eu de coup d’État en Algérie ces derniers jours. Abdelmadjid Tebboune n’a pas été chassé du pouvoir. On a d’ailleurs pu le voir ce mardi 25 février, à Alger, au côté du ministre nigérien des Affaires étrangères et de la Coopération, Bakary Yaou Sangaré. L’armée ne s’est pas rebellée, la rumeur a simplement été fabriquée de toutes pièces.

    Sur la forme aussi, il y a manipulation. Comme c’est souvent le cas, les images présentées comme des « preuves » sont sorties de leur contexte. Grâce à une recherche par image inversée, on sait que la vidéo montrant des manifestants a été filmée dans les rues d’Alger en octobre 2019.

    Nous l’avons géolocalisée au niveau de la rue Asselah Hocine, à côté de l’Assemblée populaire nationale. Quant à la revue des troupes du général Saïd Chanegriha, la vidéo est bien récente, mais elle montre en réalité la cérémonie d’installation officielle du nouveau Commandant de l’armée de l’air, le Général-major Zoubir Ghouila. Ces images n’ont donc rien à voir avec un supposé coup d’État.

    Prolifération des fausses rumeurs de coup d’État

    Ce n’est pas la première fois que de fausses rumeurs de coup d'État circulent sur le continent africain. La Côte d’Ivoire, le Bénin, la Guinée et l’Algérie en ont notamment été victimes ces derniers mois. Ces rumeurs sont devenues un véritable moyen de déstabilisation informationnel à part entière.

    La recette est plutôt simple, mais les chiffres de viralité montrent que ces infox parviennent toujours à toucher une audience conséquente. Les commanditaires de ces opérations de désinformation l’ont visiblement bien compris.

    À lire aussiLa Côte d’Ivoire sous le feu des attaques informationnelles

    Luttes informationnelles

    Sur fond de guerre d’influence grandissante au Sahel et au Sahara, le contexte informationnel s’est particulièrement tendu ces derniers mois. Cela explique en partie l’augmentation de ce type d’opérations. Des comptes pro-maliens, pro-algériens ou pro-marocains notamment s’affrontent quotidiennement sur les réseaux sociaux en diffusant de fausses informations pour déstabiliser le voisin. La première victime de cette bataille numérique reste l’information fiable et vérifiée.

    Show more Show less
    3 mins
  • Allemagne: une campagne de désinformation cible les élections législatives du 23 février
    Feb 21 2025
    Selon des chercheurs spécialisés dans la lutte contre la désinformation, une centaine de faux sites en langue allemande sont actifs depuis fin 2024, relayant des messages anti-immigration ou eurosceptiques, favorables à l’AfD, le parti allemand d’extrême droite. Dernier épisode de cette campagne coordonnée, la diffusion d’une vidéo mettant en scène des électeurs qui se plaignent de ne pas trouver le nom du candidat de l’AfD sur les bulletins du vote par correspondance. Une manœuvre informationnelle similaire à celle enregistrée avant la présidentielle aux États-Unis fin 2024. L'infox vise particulièrement le processus électoral en Saxe. Dans cette région, l'extrême droite a connu une forte poussée lors des dernières élections. L'infox prend la forme d’une vidéo rassemblant plusieurs faux témoignages  de prétendus électeurs ou électrices qui s’étonnent de ne pas trouver le nom du représentant de l’AfD sur les bulletins de la circonscription de Leipzig, qu’ils viennent de recevoir par la poste. À l’image, on ne voit que leurs mains, et on les entend s’interroger sur l’ordre d'apparition des candidats et l’absence des têtes de listes de l’alternative pour l’Allemagne. Les commentaires évoquent : « une tentative destinée à faire perdre l’AfD et un sabotage du processus démocratique ».Un faux bulletin pour induire en erreur le public En faisant un arrêt sur image, on distingue bien un papier à en-tête sur lequel est inscrit « Stimmzetell » ce qui signifie « bulletin ». On peut aussi lire « Leipzig » et ensuite un peu plus bas, il y a des cases à remplir pour cocher la liste et le candidat de son choix. Effectivement sur la vidéo trompeuse, pas de trace de l’AfD, alors qu’on trouve les emplacements réservés à la CDU, les chrétiens démocrates ou le SPD les sociaux-démocrates par exemple.Une simple recherche sur le site de la mairie de cette ville permet de savoir exactement à quoi ressemble le bulletin de vote par correspondance de dimanche. On peut récupérer un fichier Pdf du modèle de bulletin. De toute évidence, il est différent du papier brandit par les pseudos électeurs mécontents. Sur ce bulletin officiel apparaît bien le nom du candidat de l’AfD tout en haut de la colonne. Un mode opératoire déjà connuCela rappelle une autre tentative de déstabilisation, survenue aux États-Unis il y a quelques mois : une vidéo qui laissait penser à tort à la destruction de bulletins par correspondance en Pennsylvanie. Depuis jeudi, une vidéo identique circule pour accréditer l’idée de fraudes, cette fois-ci en Allemagne, dans la région de Hambourg. Tous les regards convergent vers le réseau de Mark Dougan. Il aurait produit cette fausse information afin de saper la confiance des électeurs allemands. Précisément, la même méthode avait été employée à l’approche de l’élection américaine, nous l'avions détaillée ici au mois de novembre dernier.Mark Dougan et la désinformation russeMark Dougan est un influenceur américain, ancien Shérif de Floride exilée en Russie pour échapper à des poursuites dans son pays, mais c’est surtout un « troll » qui sert la propagande du Kremlin via les services de renseignements russes. Selon l’organisation américaine Newsguard et le média allemand Correctiv, on leur doit une campagne de désinformations basée sur de faux reportages diffusés avant les élections en Allemagne. Une série d'infox destinées à discréditer la classe politique de ce pays via des mises en scène outrancières dans desvidéos faisant souvent appel à des outils d'intelligence artificielle générative. Des contenus relayant des narratifs similaires ont également fait leur apparition sur des sites « miroirs » de médias allemands. D’anciens journaux en ligne dont l’identité a été usurpée pour faire croire à des articles authentiques.
    Show more Show less
    4 mins
  • Égypte - États-Unis: la désinformation s’immisce dans les tensions diplomatiques sur Gaza
    Feb 14 2025

    En Égypte, la tension monte avec les États-Unis au sujet de l’avenir de la Bande de Gaza. Le Caire refuse catégoriquement le plan de Donald Trump qui souhaite déplacer les Gazaouis en Jordanie et en Égypte. En conséquence, le président américain menace d’arrêter les aides versées aux deux pays. Sur les réseaux sociaux, certains diffusent des infox pour semer la confusion et alimenter ces tensions.

    Ces derniers jours, une vidéo montrant le président tunisien au côté de son homologue égyptien, Abdel Fattah al-Sissi, est devenue virale sur les réseaux sociaux. Dans ce qui ressemble à une conférence de presse, Kaïs Saïed s’exprime durant vingt-secondes derrière son pupitre, dans un luxueux palace. On croit alors l’entendre dire, en arabe, « Je suis venu en Égypte pour soutenir mon frère, le président Abdel Aziz al-Sisi, et je dis à Trump : n'essayez pas de jouer avec le président Abdel Aziz ». Un bandeau textuel apposé sur ces images, semblable à ceux utilisés par les chaînes d’information en continu, affirme que « le président tunisien soutient Sissi et menace Trump ». En réalité, le président tunisien n’a jamais tenu de tels propos. Cette déclaration a été inventée de toutes pièces grâce à l’intelligence artificielle.

    Les ressorts de la manipulation

    Une rapide analyse visuelle montre que le mouvement de ses lèvres ne correspond pas avec les mots qu’il prononce. Les détecteurs d’intelligence artificielle que nous avons utilisés confirment également qu’il s’agit d’un deepfake, un hypertrucage synthétique.

    Grâce à une recherche par image inversée (voir ici comment faire), on sait que la vidéo originale qui a été manipulée date du 10 avril 2021. C’était la première visite officielle du président tunisien en Égypte. Les deux chefs d’État avaient discuté de leur coopération économique, culturelle et sécuritaire, mais à aucun moment Kaïs Saïed n’évoque la Bande de Gaza ni ne menace Donald Trump.

    Si on ne sait pas qui est à l’origine de cette manipulation, ce deepfake est poussé par différents comptes très populaires dans le monde arabe. Certains cumulent plus de 690 000 abonnés. Résultat, l’infox a rapidement dépassé le million de vues, rien que sur X (ex-Twitter).

    Kim Jong-un ciblé par les infox

    Le président tunisien n’est pas le seul dirigeant ciblé par les fausses informations. Une rumeur populaire prétend que Kim Jong-un aurait apporté son soutien à l’Égypte face aux pressions de Washington. Cette infox repose sur une vidéo dans laquelle un journaliste semble affirmer, en arabe, que « si l'Égypte est attaquée, cette attaque sera considérée comme une déclaration de guerre à la Corée du Nord ».

    Vérification faite, cette déclaration est sortie de son contexte. Cet extrait d’une vingtaine de secondes est bien réel, mais il est trompeur. En faisant une recherche par mots-clés, on retrouve la vidéo dans son intégralité sur YouTube. Il s’agit d’une chronique de fact-checking publiée par la chaîne de télé Al Araby, le 18 janvier 2020. Durant près de trois minutes, le journaliste présente et vérifie cette fausse information : quelqu’un a simplement isolé le moment où il lisait la déclaration qu’il allait démentir, pour faire croire, à tort, que c’était vrai.

    Cette manipulation est un classique de la désinformation, mais reste malheureusement toujours aussi efficace.

    Show more Show less
    3 mins
  • Politique et IA: quand les images trompeuses brouillent le débat public
    Feb 7 2025

    Alors que les outils d’IA génératives se perfectionnent de jour en jour, les images synthétiques ciblant des personnalités politiques de premier plan se multiplient, au point, parfois, de tromper la vigilance de certains médias. Ces derniers jours, deux fausses photos ciblant Donald Trump et le premier ministre britannique, Keir Starmer, ont ainsi semé le trouble sur les réseaux sociaux.

    Si vous suivez l’actualité américaine, vous avez probablement vu passer cette image montrant le président américain aux côtés du Premier ministre israélien Benyamin Netanyahu et du patron de X, Elon Musk. Les trois hommes, en costume, prennent la pose, debout, tout sourire, dans ce qui ressemble à un salon de la Maison Blanche ou à un luxueux palace. À en croire ceux qui la partagent sur les réseaux sociaux, cette « photo » aurait été prise au moment de la visite de Benyamin Netanyahu à Washington, ce mardi 4 février 2025.

    Vérification faîte, cette photo n’est pas réelle. Elle a été générée via un outil d’intelligence artificielle générative. En remontant à la source de cette image, grâce à plusieurs recherches par image inversée (voir ici comment faire), on retrouve son auteur qui précise bien en commentaire « image créée à l'aide de l'IA ».

    Cela confirme les résultats des différents détecteurs d’IA que nous avons utilisés.

    Des incohérences visuelles

    Plusieurs éléments visuels permettent aussi de repérer des incohérences caractéristiques de l’utilisation de l’intelligence artificielle. Comme souvent, l’IA pêche au niveau des mains. Les doigts des trois hommes sont déformés avec plein de bourrelets. En arrière-plan, un homme semble également ne pas avoir de visage.

    Malgré ça, l’image reste très crédible et il est facile de tomber dans le panneau. Plusieurs médias italiens l’ont d’ailleurs publié telle quelle, en Une de leur site internet, pour illustrer la rencontre entre le président américain et le Premier ministre israélien.

    Si Benyamin Netanyahu a bien rencontré Elon Musk et Donald Trump, aucune photo ne les montre ensemble dans la même pièce.

    Keir Starmer ciblé par des images manipulées

    Le Premier ministre britannique a pareillement été ciblé par des images artificielles. Une image le montrant en train de déguster un homard dans un restaurant luxueux cumule actuellement des millions de vues sur les réseaux sociaux, X en tête. Des internautes s’en servent pour s’attaquer à la politique sociale menée par cet homme politique de gauche.

    Sauf que là encore, cette image a, en réalité, été générée par l’intelligence artificielle. Plusieurs éléments le prouvent, à commencer par le logo de Grok, l’outil de génération d’images de X, visible en bas à droite de l’image. Ce tampon atteste de l’utilisation de l’IA. Pour le repérer, il est nécessaire d’ouvrir l’image en intégralité puis, parfois, de zoomer dans la zone concernée.

    Un poison lent

    Si elles peuvent paraître anodines, voire comiques pour certaines, ces images artificielles sont nocives pour nos sociétés puisqu'elles brouillent le débat public. L’analyse des échanges sur les réseaux sociaux montre que certains s’appuient sur ces fausses images, pour se forger une opinion. La frontière entre le vrai et le faux devient de plus en plus poreuse. Sur le long terme, ces infox laissent toujours des traces. Cela aboutit à installer un doute permanent, mais aussi à faire émerger des réalités alternatives, dangereuses pour les démocraties.

    Show more Show less
    3 mins
  • RDC: la guerre dans l’est du pays se joue aussi sur les réseaux sociaux
    Jan 31 2025

    En République démocratique du Congo, les membres du groupe M23 soutenus par le Rwanda ont pris le contrôle de nombreux quartiers de Goma cette semaine. Face à cette situation jugée préoccupante, la Communauté de développement de l’Afrique australe se réunit ce vendredi 31 janvier, à Harare au Zimbabwe. Ces affrontements s’accompagnent d’une guerre informationnelle sur les réseaux sociaux. Les infox se multiplient notamment à propos de l’implication de puissances étrangères dans le conflit.

    Alors que le chef de la diplomatie française, Jean-Noël Barrot, est arrivé à Kigali après s’être rendu à Kinshasa, plusieurs publications mensongères affirment que la France aurait décidé de « soutenir militairement le Rwanda face à la RDC ». À en croire ce message activement relayé sur Facebook et TikTok, « trois avions militaires français, chargés de munitions, seraient en route vers Kigali et certains auraient déjà atterri ». Leur objectif serait de « faire tomber Goma coûte que coûte ». La photo qui accompagne ce post montre un A-400M Atlas, un avion de transport français, au sol, sur le tarmac d’un aéroport.

    Vérification faite, cette fausse information a été fabriquée de toutes pièces. La rumeur ne s’appuie sur rien de factuel puisqu’aucun avion militaire français n’a été vu à Kigali. De plus, la photo partagée sur les réseaux sociaux n’a rien à voir avec la situation en RDC. Grâce à une recherche par image inversée, on retrouve sa trace dans plusieurs articles de presse publiés en 2022. Elle a été prise sur la base de Calvi en Corse, et non au Rwanda. Ni l’armée française, ni l’armée rwandaise n’a d’ailleurs communiqué sur une quelconque livraison de munitions.

    « Aucun avion français ne transporte des munitions vers Kigali »

    Contacté par la rédaction de Balobaki, un média de fact-checking congolais, le porte-parole du ministère français de l’Europe et des Affaires étrangères, a démenti ces allégations. « Aucun avion français ne transporte des munitions vers Kigali », a assuré Christophe Lemoine. La France a d’ailleurs fermement condamné l’offensive menée par le M23 et appelé les forces rwandaises a « quitté instamment » la RDC.

    Ces fausses accusations d’implications militaires visent également d’autres pays, à commencer par l’Afrique du Sud. Plusieurs publications, cumulant plus d’un million de vues, affirment notamment que les Forces de défense nationales sud-africaines auraient envoyé « quatre avions de combat en RDC pour soutenir l’armée congolaise ». Sauf qu’une nouvelle fois, c’est faux. Aucun chasseur sud-africain n’a été aperçu à Goma.

    Si la photo publiée sur les réseaux sociaux montre bien un escadron de Gripen, des avions de combat suédois que possède Pretoria, le cliché a été pris il y a plus de dix ans.

    Face à la viralité de cette fausse information, l’armée sud-africaine a publié un démenti sur ses réseaux sociaux.

    Un contexte propice à la désinformation

    Ces deux infox sont loin d’être les seules à circuler sur les réseaux sociaux. La situation en cours dans l’est de la RDC est particulièrement propice à la désinformation. Énormément d’images circulent, dont beaucoup sont sorties de leur contexte. Certains n’hésitent pas également à détourner l’image de certains médias, comme RFI, pour diffuser de fausses informations. Raison pour laquelle il faut rester prudent et penser à remonter à la source en cas de doute.

    Show more Show less
    3 mins
  • Mythe ou réalité? Les risques associés aux smartphones près des bouteilles de gaz
    Jan 24 2025

    Serait-il dangereux d’utiliser son téléphone portable à côté d’une bouteille de gaz ? Cette croyance populaire, très ancrée en Afrique et ailleurs dans le monde, réapparaît régulièrement au gré des différents faits divers. Ces derniers jours, une vidéo partagée sur des groupes WhatsApp affirme montrer, à tort, une famille victime d’une explosion de gaz liée à l’utilisation d’un smartphone.

    C'est un auditeur tchadien qui nous a alerté sur la circulation de ces images choquantes. On y voit plusieurs adultes et des enfants, gravement brûlés, arriver dans la salle d’attente d’un hôpital. L’un d’entre eux, le corps ensanglanté, s’effondre sur le sol, inconscient. Le message qui accompagne cette vidéo l’assure : « Évitons le téléphone à côté de la bouteille de gaz. Regardez cette famille en sang jusqu’aux enfants ». À en croire le drapeau présent dans cette légende, la scène se passerait au Cameroun.

    Pour savoir ce que montre réellement cette vidéo, nous avons d’abord cherché à la géolocaliser en s’appuyant sur une plaque d’immatriculation visible sur l’un des véhicules stationnés devant l’hôpital. La combinaison des chiffres et des lettres ainsi que les éléments graphiques correspondent aux plaques de l’état de Rivers, dans le sud du Nigeria.

    Les causes réelles de l'explosion

    Pour confirmer cette piste, nous avons effectué plusieurs recherches avec les mots-clés, « gas », « explosion » et « Rivers ». Cela nous a permis de retrouver la trace de cette vidéo dans la presse nigériane et de confirmer notre géolocalisation. En croisant plusieurs articles provenant de médias nigérians fiables, on apprend que ces images font suite à une explosion mortelle chez un vendeur de gaz, à Port Harcourt, dans le quartier d’Oroazi, ce que nous a confirmé la rédaction de RFI en Hausa, à Lagos.

    En réalité, cette explosion n’est pas liée à l’utilisation d’un téléphone portable. Selon plusieurs témoignages, un homme aurait tenté de souder une bouteille de gaz qui fuyait, provoquant involontairement une explosion en chaîne. Le dernier bilan fait état de cinq morts et plus d’une dizaine de blessés. La légende qui circule sur WhatsApp est donc mensongère.

    Des risques minimes

    Sur le fond, est-il dangereux d’utiliser son téléphone portable à côté d’une bouteille de gaz  ? Pour répondre à cette question, il faut d’abord préciser comment se produit une explosion. « Concrètement, pour qu’il y ait une atmosphère explosive, ce que nous appelons une atex, il faut un combustible, un gaz par exemple comme l’hydrogène, le butane ou le propane, et un comburant, l’oxygène de l’air. Si on a suffisamment de combustible et de comburant, on va avoir un mélange explosif. Pour que l’explosion se produise, il ne manque plus qu’une source d’inflammation. Cela peut être une étincelle électrique, une chaleur excessive ou une flamme par exemple », explique Olivier Cottin, responsable de l’unité Atex, au sein de la direction Incendies, dispersions, et explosions (IDE) de l'Ineris, l’institut national de l'environnement industriel et des risques.

    « Si les conditions d’utilisation sont normales, c'est-à-dire que la bouteille de gaz est en bon état et qu’il n’y a pas de fuite, alors il n’y a pas de danger immédiat à utiliser son téléphone portable à côté de cette bouteille, précise Olivier Cottin. Pour qu’il ait un risque, il faudrait une fuite dans un milieu confiné. Mais de la même façon, un téléphone en fonctionnement normal ne présente pas de risques. Il ne provoque ni étincelles ni chaleur excessive pouvant faire exploser une atmosphère explosive. Il faudrait donc également que le téléphone dysfonctionne pour enflammer une atex ».

    En conclusion, le risque zéro n’existe pas, mais si votre bouteille de gaz ne fuit pas et que votre téléphone fonctionne correctement, vous n’avez pas de souci à vous faire.

    Show more Show less
    3 mins
  • Incendies de Los Angeles: quand des images détournées sèment la confusion
    Jan 17 2025

    À Los Angeles, les pompiers essayent toujours de contenir les flammes, plus d’une semaine après le début des incendies. Selon le dernier bilan, au moins 24 personnes ont trouvé la mort. Une catastrophe historique, marquée par un flot d'infox d’une rare intensité sur les réseaux. L’origine de ces incendies, le travail des pompiers, les rescapés, rien n’échappe à la désinformation, à tel point que certaines des images les plus partagées en ligne sont irréelles ou sorties de leur contexte.

    Si vous avez passé du temps sur les réseaux sociaux ces derniers jours, vous avez probablement été confronté à l’une de ces deux images aériennes, montrant une maison au toit rouge, prétendument épargnée par les flammes à Los Angeles. Tout le quartier semble avoir été détruit, sauf ces luxueuses résidences. Si les deux maisons se ressemblent, ce ne sont pas les mêmes. L’une est en bord de mer, l’autre en pleine ville.

    Les internautes qui partagent ces photos affirment qu’elles montreraient « la maison d’un croyant de Los Angeles, miraculeusement protégée par Dieu ». Un récit sur lequel plusieurs auditeurs nous ont alertés.

    Image détournée et générée par IA

    Vérification faîte, ces deux images n’ont rien à voir avec les incendies en cours à Los Angeles. La première photo est bien authentique, mais elle n’a pas été prise dans la cité des anges. Une recherche par image inversée permet de retrouver sa trace dans la banque d’images de l’Agence France Presse (AFP). On y apprend en légende qu’elle montre une maison dans le quartier de Lahaina, à la suite des incendies mortels à Hawaï, en août 2023. La résidence avait été épargnée notamment grâce à sa toiture en tôle épaisse et à l’absence de végétation à proximité.

    Concernant le deuxième cliché, si visuellement tout semble réel, l’image a en réalité été générée par une intelligence artificielle. Le seul moyen de s’en rendre compte consiste à faire une recherche par image inversée sur Google, puis d’aller dans l’onglet « À propos de l’image ». Un message apparaît alors indiquant « image créée avec l’IA de Google ».

    Comment Google sait-il que quelqu’un a généré cette image avec son intelligence artificielle ? Pour son outil de génération d’image, baptisé Imagen, la firme américaine utilise ce que l’on appelle des watermarks, des filigranes, invisibles à l’œil nu, mais identifiables par un logiciel. Ce tatouage numérique atteste donc de l’utilisation de l’intelligence artificielle, mais sans faire cette démarche de vérification, il est impossible de s’en rendre compte.

    Instrumentalisation complotiste et religieuse

    Cette image synthétique fait l’objet de nombreuses instrumentalisations. Religieuse d’abord, avec plusieurs messages parlant d’une intervention divine. Certains affirment, à tort, que cette maison appartenait à une famille chrétienne, d’autres à une famille musulmane.

    Et puis certains complotistes ont aussi diffusé cette image, assurant que l’incendie était volontaire et ne ciblait que certaines habitations. Deux récits trompeurs vus des dizaines de millions de fois sur les réseaux sociaux. Résultat, cette infox figure aujourd’hui parmi les images les plus vues concernant les incendies de Los Angeles. On est donc là face à un énième exemple de détournement de l’IA qui perturbe les perceptions d’un événement mondial et invisibilise les vraies images de la catastrophe.

    Show more Show less
    3 mins