14
JEUDI 25 JANVIER 2024 / FINANCES NEWS HEBDO
BOURSE & FINANCES
qui relèvent de l’éthique. Si les premiers sont bien connus et bien documentés, les algo- rithmes d’IA impliquent des problèmes différents et qui sont en cours de réglementation au niveau mondial. Citons à titre d’exemple le AI Act en Europe et des initiatives similaires en Chine et aux états Unis. Comment s’assurer que les données utilisées (lors de la collecte ou de l’entraine- ment des systèmes d’IA) ne contiennent pas de biais qui induisent nécessairement des problèmes de justice ou d’équité dans divers proces- sus bancaires comme l’octroi de crédit, la lutte contre le blanchiment d’argent et le financement du terrorisme. La fiabilité des données, la justesse des algorithmes et la capacité d’expliquer leurs recommandations constituent un gage d’acceptabilité des systèmes d’IA dans le domaine bancaire et financier. F.N.H. : Comment l'ap- proche politique euro- péenne basée sur le risque influence-t-elle le développement et la confiance dans les sys- tèmes d'IA dans le sec- teur bancaire ? Pr. A.E.S. : D’un point de vue réglementaire, en 2020, la Commission européenne met- tait en avant les principaux risques que l’IA fait courir pour les personnes. Le Ai act qui s’en est suivi définit 4 niveaux de risques. • Pratiques interdites de l’IA pour les systèmes d’IA à risques inacceptables. Il s’agit de l’interdiction d’un ensemble très limité d'utilisations parti- culièrement nuisibles de l'IA, qui sont contraires aux valeurs de l’UE parce qu'elles violent
les droits fondamentaux. • Systèmes d’IA à haut risque et réglementés pour les sys- tèmes à haut niveau de risque. Il s’agit d’un nombre limité de systèmes d'IA ayant un impact négatif sur la sécurité des per- sonnes ou leurs droits fonda- mentaux, comme les systèmes bancaires. • Transparence pour les sys- tèmes d’IA à un niveau limité de risque. Pour certains sys- tèmes d'IA, des exigences de transparence spécifiques sont imposées. Par exemple, les utilisateurs doivent être conscients qu'ils interagissent avec une machine. • Pour tous les autres systèmes d’IA, sur une base volontaire, les développeurs doivent choi- sir d'appliquer les exigences relatives à une IA digne de confiance et d'adhérer à des codes de conduite volontaires. Dans le secteur bancaire et financier, les systèmes d’IA bancaires sont considérés comme des systèmes d’IA à haut risque, en particulier pour les droits fondamentaux, la protection des données à caractère personnel, le respect de la vie privée, et la non-dis- crimination. Par exemple, la prise en compte du département de résidence du client dans un algorithme de scoring pour l’octroi des crédits bancaires peut discri- miner les habitants d’un dépar- tement pauvre pour l’obtention d’un prêt, ce qui peut renforcer les inégalités existantes. De même que l’analyse de type de consommation à partir des relevés de comptes bancaires peut donner lieu à une ingé- rence dans la vie privée des clients. Dans ce contexte de réglemen- tation européenne, les impli- cations pour les banques sont très contraignantes et on peut les résumer comme suit. Pour la gestion du côté de la banque, il faudrait : • Établir et mettre en œuvre un système de gestion de la qua-
lité au sein de l’organisation; rédiger et tenir à jour la docu- mentation technique; procéder à l'évaluation de la conformité et, éventuellement, à la rééva- luation du système (en cas de modifications significatives); • Enregistrer le système IA autonome dans la base de don- nées de l’UE; signer la déclara- tion de conformité et apposer le marquage CE et effectuer une surveillance après la mise sur le marché; • Signaler les incidents graves, les dysfonctionnements entraî- nant des violations des droits fondamentaux et collaborer avec les autorités de surveil- lance du marché. Pour la gestion des clients, il faudrait : • Utiliser le système IA à haut risque conformément au mode d'emploi; assurer une supervi- sion humaine et surveiller les opérations pour déceler les risques éventuels; • Conserver les journaux géné- rés automatiquement et infor-
mer le fournisseur ou le distri- buteur de tout incident grave et de tout dysfonctionnement; • De plus, les obligations légales existantes continuent de s'appliquer (par exemple, en vertu du GDPR). F.N.H. : Quels sont les opportunités et les défis spécifiques au dévelop- pement de l'intelligence artificielle dans le sec- teur bancaire africain, et comment cela peut-il contribuer au «leapfrog- ging» technologique du continent ? Pr. A.E.S. : Le développement de l’IA en Afrique, tous sec- teurs confondus, soulève de nombreux défis. D’abord, des défis technolo- giques relatifs à : • La disponibilité et la qualité de grandes quantités de don- nées; • L’avancement rapide des technologies de l’IA (ex. l’IA générative);
La fiabilité des données, la justesse des algorithmes et la capacité d’expliquer leurs recommandations constituent un gage d’acceptabilité des systèmes d’IA.
www.fnh.ma
Made with FlippingBook flipbook maker