FNH N° 1164

34

JEUDI 12 SEPTEMBRE 2024 / FINANCES NEWS HEBDO

HIGH-TECH

Deepfakes et désinformation

Les dérives de l’IA générative

 En 2023, le nombre d’utilisateurs d’outils d’IA dans le monde a dépassé les 250 millions, soit plus du double de celui de 2020.

L'IA, bien qu'elle offre de nouvelles possibilités de création de conte- nu et d'engagement sur les réseaux sociaux, présente des risques importants en termes de désinformation et de manipulation.

mation dans 16 langues, dont le français, l'anglais, l'arabe et le chinois. Ces sites, souvent dotés de noms génériques tels que 'iBusiness Day' ou 'Daily Time Update', imitent des médias tra- ditionnels tout en fonctionnant avec des articles générés par des bots. Ces fausses informations incluent des allégations fabri- quées sur des leaders politiques, de faux décès de célébrités, et des événements fictifs présen- tés comme actuels. «Certains de ces sites génèrent des centaines, voire des milliers d’articles par jour», a déclaré Jack Brewster, chercheur chez NewsGuard qui a mené l’enquête. «C’est pourquoi nous les considérons comme le prochain grand propagateur de désinformation», note-t-il.

dibles, citant souvent de faux experts, des sources inventées et des statistiques manipulées. De même, les générateurs d'images et de vidéos comme Midjourney permettent la création de contenus audiovisuels hyper- réalistes sans nécessiter d'ex- pertise technique avancée. Ces outils peuvent générer des deep- fakes, des vidéos manipulées qui placent les visages de personnes sur d'autres corps, ou font dire à des figures publiques des propos qu'elles n'ont jamais tenus. Ces contenus peuvent être utilisés pour tromper le public, déstabili- ser des processus électoraux, ou même inciter à la violence. Pour lutter contre la désinforma- tion générée par l'IA, certaines plateformes et entreprises tech- nologiques ont mis en place des mécanismes de modération, comme l'utilisation d'étiquettes pour signaler les contenus géné- rés par l'IA ou les systèmes de détection automatique des contenus trompeurs. Cependant, ces méthodes présentent plu- sieurs limites. De plus, les outils de détection automatique, bien qu'ils puissent analyser des motifs linguistiques ou stylis- tiques, sont souvent peu fiables et produisent des faux positifs, notamment dans des contextes non anglophones. ◆

Par K. A. C

omme pour toute avancée tech- nologique, les outils d'intelli- gence artificielle générative tels que ChatGPT d'OpenAI, le géné- rateur d'images Midjourney, ou Claude, le chatbot développé par la startup Anthropic, sont utilisés à la fois pour amélio- rer la productivité et la création, mais aussi, de plus en plus à des fins d'escroquerie et d'abus. Ces contenus audiovisuels artifi- ciellement générés incluent des arnaques électorales par usurpa- tion d'identité de politiciens ou la création d'images non consen- suelles de célébrités. Sumsub, une plateforme de vérification d'identité, a publié en septembre dernier un rap- port sur la fraude d'identité. Il révèle une augmentation signifi- cative des cas de fraude impli- quant des deepfakes entre 2022 et 2023. Dans le haut de tableau, les Philippines affichent une hausse de 4.500%, suivies par le Vietnam (+3.050%) et les États- Unis (+3.000%). La Belgique (+2.950%), le Japon (+2.800%) et la Roumanie (+1.766%) ne sont pas en reste, enregistrant eux

aussi des augmentations mar- quées. En Afrique, le phénomène est également préoccupant. L'Afrique du Sud a vu ses cas de fraude augmenter de 1.200%, tandis que l'Algérie a enregis- tré une hausse de 1.000%. En outre, les Émirats Arabes Unis ont été fortement touchés avec une augmentation de 2.200%. Ces dernières années, l'appari- tion d'outils de deepfake géné- ratif a rendu cette technologie accessible à un public bien plus large. L'engouement pour ces outils, dont certains enre- gistrent jusqu'à 10 millions de recherches mensuelles, est mani- feste. Selon des statistiques sur la fraude par deepfake révélées par Sapio Research (2023), 85% des professionnels de la sécurité estiment que l'utilisation de l'IA générative a contribué à une aug- mentation des cyberattaques. D’après une analyse de NewsGuard, plus de 1.065 sites d'informations générées par intel- ligence artificielle fonctionnent avec peu ou pas de supervi- sion humaine, publiant réguliè- rement des articles de désinfor-

Comment l'IA générative contribue-t-elle à la désinformation ?

L'IA générative, grâce à des outils tels que les modèles de langage de grande taille (LLM) et les générateurs de contenu multimédia, facilite la production de désinformation de manière plus rapide, moins coûteuse et à plus grande échelle. Par exemple, des modèles de langage comme ChatGPT peuvent être utilisés pour produire de grandes quan- tités de texte qui semblent cré-

www.fnh.ma

Made with FlippingBook flipbook maker