HIGH-TECH
51
FINANCES NEWS HEBDO MARDI 31 MARS 2026
Guerre en Iran L’intelligence artificielle brouille la réalité du terrain
70% : c’est la proportion estimée de contenus visuels liés au conflit examinés sur les réseaux sociaux présentant des signes de manipulation, de décontextualisation ou de fabrication totale grâce à l’IA, selon First Draft.
Depuis le déclenchement des hostilités entre Israël, les USA et l’Iran fin février 2026, un phénomène presque aussi rapide que les frappes aériennes accompagne ce conflit : la prolifération de contenus visuels trompeurs générés ou manipulés par intelligence artificielle (IA).
90 jours, voire définitivement en cas de récidive. Selon Nikita Bier, responsable produit de X, «pen- dant les périodes de guerre, il est essentiel que les gens aient accès à des informations authentiques et vérifiables». Pourtant, ces mesures arrivent après des millions de partages viraux. La rapidité avec laquelle les contenus se propagent dépasse souvent celle des systèmes de modération, qu’ils soient automa- tisés ou humains. Dans les pre- mières heures de l’escalade, de nombreuses vidéos controversées ont été partagées des centaines de milliers de fois avant d’être signalées comme trompeuses.
de ce qui est généré. Cela affecte non seulement l’opinion publique, mais aussi la crédibilité des repor- tages journalistiques et la capacité des décideurs à s’appuyer sur des preuves visuelles fiables. Paradoxalement, certaines tech- nologies d’IA conçues pour aider à vérifier l’authenticité des images peinent à distinguer les contenus réels des faux sophistiqués. Des outils de détection automatique échouent parfois à reconnaître les artefacts caractéristiques des deepfakes, en particulier dans des vidéos complexes ou bruitées, ce qui complique encore davan- tage le travail des équipes de fact‑checking. Pour les citoyens ordinaires, cela signifie que voir n’est plus nécessairement croire. Une vidéo impressionnante peut être techni- quement réaliste, mais totalement déconnectée de ce qui se passe réellement sur le terrain en Iran ou en Israël. Cela complique la compréhension du conflit par le grand public et rend la tâche des journalistes et chercheurs encore plus ardue. La rapidité de propagation de ces contenus pose un défi majeur à la démocratie de l’information : une fausse vidéo peut influencer l’opinion publique ou les déci- sions politiques bien avant qu’une correction ne soit publiée. Dans un contexte de guerre, cela peut intensifier la peur, nourrir la colère ou renforcer des narratifs biaisés, sans preuve solide. ◆
Par K. A. S
ur les réseaux sociaux, des vidéos montrant des frappes, des explo- sions ou des actions militaires cir- culent en grande quantité, alors qu’une partie significative de ces contenus n’a aucun lien avec les événements réels sur le terrain. Une équipe de fact‑checking de Euronews a identifié plusieurs vidéos virales présentées comme des séquences de missiles iraniens frappant Tel‑Aviv ou des avions américains attaquant l’Iran. L’une de ces vidéos a été vue plus de 4 mil- lions de fois, mais s’est avérée être une création IA ou une scène tirée d’un contexte totalement différent. Parallèlement, des contenus simi- laires prétendant montrer des explo- sions à Dubaï ou des frappes sur des infrastructures civiles dans des capitales du Golfe ont également été signalés comme faux ou géné- rés par IA. Par exemple, des vidéos diffusées en ligne montrant une attaque à l’aéroport international de Dubaï contenaient des signaux visuels indiquant une fabrication par IA, sans confirmation réelle d’un incident de ce type dans la ville. Une vague massive de contenus falsifiés Ce type de contenu n’est pas isolé.
Selon BBC Verify, plusieurs vidéos et images générées par IA, y com- pris de faux bombardements ou de fausses destructions, ont accu- mulé des dizaines de millions de vues sur des plateformes comme X, TikTok ou Instagram pendant les premiers jours du conflit. Dans certains cas, des images satellites montrant des bases ira- niennes frappées ont été altérées avec des outils d’IA, en ajoutant des éléments incohérents ou ima- ginaires. Ces images modifiées ont également circulé en plusieurs langues, renforçant la confusion. Un élément révélateur : l’IA n’est plus seulement utilisée pour créer de faux clips. Des vidéos de troupes américaines opérant sur le sol iranien ont été générées par IA alors qu’aucune confirmation officielle de la présence de telles forces n’existe. Les plateformes sous pression Face à cette situation, certaines plateformes ont commencé à réa- gir. X a mis à jour son règlement: les créateurs qui publient des vidéos de guerre générées par IA sans les étiqueter clairement peuvent être exclus de son pro- gramme de monétisation pendant
Une industrie de désinformation
Ce qui rend la situation particuliè- rement préoccupante, c’est qu’il ne s’agit pas seulement d’erreurs ou d’œuvres d’amateurs isolés. Des enquêtes, y compris des analyses de réseaux sociaux, ont montré que des campagnes coordonnées, parfois liées à des intérêts géopolitiques, exploitent la génération d’IA pour amplifier leurs récits. Certaines opérations se sont appuyées sur des comptes volés ou automatisés dans plu- sieurs pays, créant un réseau de diffusion rapide et difficile à tracer. Cette stratégie vise non seulement à semer la confusion, mais aussi à créer une mémoire visuelle biai- sée du conflit, où le public a du mal à distinguer ce qui est réel
www.fnh.ma
Made with FlippingBook flipbook maker