FNH N° 1168

41

FINANCES NEWS HEBDO / JEUDI 10 OCTOBRE 2024

HIGH-TECH

Conflit au Moyen-Orient L'IA au service de la guerre

 Selon une étude réalisée par McAfee, 70 % des personnes interrogées ont déclaré ne pas être sûres de pouvoir faire la différence entre une voix réelle et une voix clonée.

ainsi profondément la perception des conflits. Des images truquées de bombardements ou de victimes civiles peuvent rapidement susciter l’indignation, même lorsqu’elles sont fausses. On se souvient d’ailleurs de la rumeur, il y a un an, concer- nant quarante bébés prétendument décapités dans un kibboutz israé- lien, une histoire qui s'était répandue comme une traînée de poudre, bien qu’elle ait été démentie par la suite. Cela a un effet direct sur la couver- ture médiatique, car les journalistes et les médias doivent désormais déployer des efforts accrus pour vérifier l'authenticité des contenus avant de les relayer. Les réseaux sociaux, un terreau fertile pour la manipulation Les réseaux sociaux sont également des terrains propices à la polari- sation. Les contenus manipulés alimentent les débats, et les pla- teformes comme X (anciennement Twitter), Facebook et Instagram, et bien qu'elles aient développé des outils pour détecter et signaler les deepfakes, peinent à suivre le rythme de la création et de la diffu- sion de ces contenus. L’utilisation de l’IA générative pour générer des images trompeuses et des vidéos au cœur des récents conflits au Moyen-Orient montre l’urgence de développer des outils pour combattre la désinformation et protéger l’intégrité des informations diffusées en ligne. Sans une régula- tion claire et des efforts concertés

pour lutter contre ces manipulations numériques, les fake news devien- dront encore plus difficiles à contre- carrer, compromettant la véracité des récits de guerre et affectant l'opinion publique à l'échelle mon- diale. Big Tech sous pression Les entreprises de la Big Tech, telles que Google, Meta et Amazon Web Services, jouent un rôle critique dans la fourniture d’infrastructures technologiques pour ces systèmes de désinformation. Par exemple, les services de cloud computing et d’intelligence artificielle qu’elles fournissent au gouvernement israé- lien, comme le montre l’enquête sur «Artificial Genocidal Intelligence» , soulèvent des questions éthiques importantes. Ces entreprises sont sous pression pour adopter des pra- tiques plus responsables et éthiques dans la gestion de leurs contrats, en particulier lorsque leurs technolo- gies sont utilisées pour des finalités militaires. Le projet Nimbus, une collaboration entre Google, Amazon et le gouvernement israélien, est un exemple de partenariat qui a attiré l’attention des défenseurs des droits humains. Ce projet fournit des outils d’IA qui pourraient potentiellement être utilisés pour la surveillance de masse ou pour alimenter des sys- tèmes d’armement automatisés, ce qui renforce ainsi la capacité d’un État à mener des opérations mili- taires ou des campagnes de désin- formation. ◆

Les récents affrontements au Moyen-Orient ont vu l'émergence d'une nouvelle forme de désinformation, alimentée par l'IA générative, qui crée des contenus visuels falsifiés diffusés en masse sur les réseaux sociaux.

Par K. A. L

es outils numériques, bien que fas- cinants par leur potentiel créatif, deviennent des armes redoutables dans la guerre de l'information. Dans le conflit israélo-palestinien et les récentes tensions entre Israël et le Hezbollah, les deepfakes ont pris une ampleur inquiétante. Un cas notable est survenu en septembre, lorsque plusieurs images prétendant montrer des frappes de missiles du Hezbollah sur des bases israéliennes se sont révélées être des créations générées par IA. Par exemple, une image d'un avion en flammes à la base militaire de Ramat David a été largement partagée, affirmant que la base avait été attaquée par le Hezbollah. Grâce à l'analyse des experts de DW Fact Check, il a été confirmé que cette image présentait des anomalies typiques des deep- fakes, avec des distorsions visuelles flagrantes et des détails incohérents, tels que des textes flous sur les véhi- cules et des formes irrégulières.

ler l’opinion publique. En 2023, les experts estiment qu'environ 500.000 vidéos et voix deepfake ont inondé les plateformes sociales, contre seu- lement 14.678 en 2021. La multi- plication rapide de ces contenus, dont certains sont produits pour des objectifs de propagande, rend la vérification de l'information plus difficile que jamais. Le phénomène des deepfakes et des fausses informations dans les conflits ne se limite pas à la dif- fusion de contenus isolés. Il fait partie d'une stratégie de guerre de l'information plus vaste. En 2021, plus de 85.000 vidéos fausses ont été répertoriées en ligne, un chiffre qui a depuis explosé. Cela crée un environnement où les images et vidéos manipulées deviennent mon- naie courante, noyant les faits véri- fiables dans un océan de contenus trompeurs. Cette marée montante de désinformation rend difficile pour les utilisateurs de réseaux sociaux et même les journalistes de distinguer le vrai du faux. Des vidéos et images générées par IA se propagent rapidement, souvent sans vérification, attei- gnant des millions de personnes en quelques heures, influençant

Une menace invisible pour la vérité

Sur les réseaux sociaux, les deep- fakes - vidéos et images générées par IA - sont de plus en plus utilisés pour semer la confusion et manipu-

www.fnh.ma

Made with FlippingBook flipbook maker