
Un nuovo modello per la progettazione e lo sviluppo dell’intelligenza artificiale

In occasione della Giornata internazionale della protezione dei dati (28 gennaio), l'Autorità Catalana per la Protezione dei dati (Autoritat Catalana de Protecció de Dades - APDCAT) ha presentato al Parlamento della Catalogna un modello pionieristico in Europa per lo sviluppo di soluzioni di intelligenza artificiale che rispettino i diritti fondamentali degli esseri umani.
L'intelligenza artificiale (IA) è sempre più presente nella nostra società, con un coinvolgimento diretto nei processi decisionali in qualsiasi campo. Questo comporta implicazioni rilevanti per le nostre comunità, poiché questa tecnologia e l’utilizzo che fa dei dati possono essere usati per prendere decisioni che influenzano direttamente la vita dei singoli, dei gruppi e della società nel suo insieme.
Nel corso dell’ultimo anno, la ADPCAT ha sviluppato un modello pionieristico in Europa per la valutazione dell'impatto sui diritti fondamentali nell'uso dell'intelligenza artificiale (FRIA), in linea con quanto stabilito dal nuovo Regolamento europeo sull'intelligenza artificiale (AI Act). Il documento, che vuole essere un riferimento per altre organizzazioni che devono realizzare un FRIA, è stato elaborato nell'ambito del gruppo di lavoro “DPD in network” guidato dal professor Alessandro Mantelero, docente di Diritto privato e Law & Technology al Politecnico di Torino ed esperto internazionale in tema di AI e diritti fondamentali.
“Questo è il risultato di un progetto impegnativo guidato dall'APDCAT e sono molto orgoglioso del lavoro svolto nell'ultimo anno con l'APDCAT e i vari enti pubblici e privati su questo progetto – commenta il professor Mantelero - L'impatto sui diritti fondamentali è una componente chiave sia della valutazione di conformità sia della valutazione ai sensi dell'articolo 27 dell’AI Act europeo, ma mancano metodologie e modelli concreti per effettuarla. Alcune delle metodologie proposte presentano carenze, altre non sono state testate in casi concreti o mancano prove dettagliate delle loro prestazioni”.
Il lavoro di sviluppo del nuovo modello catalano ha riguardato la creazione di una metodologia di valutazione e di un template volti a semplificare il processo di valutazione e design dei sistemi di AI. Rispetto ad altri modelli proposti in precedenza, che coprono una varietà di questioni con un'attenzione limitata verso i diritti fondamentali, il nuovo modello di FRIA combina la metodologia di valutazione del rischio con il quadro giuridico vigente.
È stato adottato un approccio empirico basato su casi concreti, fondamentale per verificare l'efficacia stessa del modello proposto nel raggiungere gli obiettivi di policy del FRIA. I casi d'uso presi in considerazione, tutti nelle aree ad alto rischio ai sensi dell’AI Act, hanno dimostrato che è possibile snellire la procedura FRIA evitando l'adozione di complesse checklist e concentrandosi invece sugli elementi fondamentali dell'impatto dell’IA sui diritti. I casi d'uso hanno anche dimostrato un buon livello di usabilità dello strumento: persone con un background adeguato possono completare il FRIA con uno sforzo limitato.
La metodologia proposta combina l’approccio tradizionale alla gestione del rischio con quello proprio dei diritti fondamentali, contestualizzando le variabili chiave della probabilità e gravità del rischio rispetto al quadro giuridico di riferimento. I tre blocchi costituenti il modello FRIA (pianificazione e scoping, raccolta dati e analisi del rischio, gestione del rischio) fanno uso di diverse soluzioni tecniche, dai questionari di orientamento alle matrici di rischio, nell’ottica di una valutazione che deve sempre essere contestuale ed incentrata sulla specifica applicazione di IA, individuandone l’impatto sui differenti diritti e le misure appropriate volte a mitigarlo in un’ottica di trustworthy AI.
“Il FRIA, se correttamente concepito, non impone un onere aggiuntivo eccessivo agli enti pubblici e privati dell'UE nel conformarsi alla legge sull'AI – conclude Mantelero - In termini di aree coperte, i casi d'uso si riferiscono a quattro delle aree chiave elencate nell'Allegato III dell’AI Act, ovvero istruzione universitaria, gestione delle risorse umane, accesso all'assistenza sanitaria e i servizi di welfare. La natura dei casi d'uso discussi li renderà utili anche a molti altri enti pubblici e privati di altri Paesi interessati a progettare sistemi o modelli di IA conformi ai diritti fondamentali in queste aree particolarmente sensibili e delicate della nostra vita”.