Uninews TorVergata #metropoli

comprendere le decisioni di sistemi di IA. Lo Human-Centric ART Group del prof. Zanzotto, gruppo nel quale porto avanti la mia ricerca nel dipartimento di Ingegneria dell'Impresa "Mario Lucertini", si fonda su questa idea. L’IA deve essere sicura e tecnicamente affidabile . Nell’attività di ricerca insieme al gruppo, ho affrontato più volte il tema della valutazione anche in domini diversi da quelli di addestramento, cercando di quantificare quanto le performance di questi sistemi siano influenzate dall’aderenza dei test ai dati di training e quanto siano robusti anche a test meno scontati. È essenziale la protezione dei dati e il rispetto della privacy : i dati devono essere trattati con cura e trasparenza, e se informazioni sensibili vengono erroneamente incluse nei dati di addestramento, opzioni per la rimozione di queste informazioni dovrebbero essere disponibili. Recentemente abbiamo proposto e presentato una tecnica di rimozione di tali informazioni (Private Memorization Editing).

Nonostante questi sistemi siano spesso completamente opachi, la trasparenza dei processi che portano a una predizione dovrebbe essere favorita. Sviluppando tecniche di interpretabilità cerchiamo di tracciare il processo che ha portato ad una certa predizione, e potenzialmente di alterarla quando errata. I sistemi devono essere equi e non discriminatori : quantificare quanto questi modelli siano stati esposti a stereotipi e pregiudizi è fondamentale per non perpetrarli. Infine, l’IA deve contribuire al benessere sociale e ambientale , e qualora sia necessario dovrebbero essere chiare le responsabilità sugli effetti e sui rischi che comporta. I sistemi di IA dovrebbero, come qualsiasi strumento, essere usati e realizzati con attenzione, rispetto e senso etico perché possano davvero essere utili: la ricerca può proporre soluzioni concrete perché siano davvero degni di fiducia.

Fonti

26

Made with FlippingBook interactive PDF creator