Recentemente la Commissione europea ha presentato la versione definitiva delle linee guida per una AI affidabile (cd. codice etico per la progettazione di sistemi di intelligenza artificiale affidabile), dando così seguito al lavoro svolto da un apposito gruppo di esperti in materia, che aveva portato alla pubblicazione di una prima bozza di tale documento già nel dicembre 2018.
Prima di svolgere una breve analisi del documento sono necessarie alcune nozioni di base in tema di AI.
La data di nascita dell’AI risale al 1956, durante una conferenza organizzata al College di Dartmouth, alla quale presero parte quelli che sono ritenuti oggi i suoi precursori, tra cui John McCarthy, inventore del LISP (un apposito linguaggio di programmazione per l’AI), Newell, Simon ed altri.
Per AI si intende lo sviluppo di sistemi informatici in grado di svolgere attività per le quali è normalmente richiesta una capacità intellettiva.
I primi sistemi di questo tipo erano sistemi cd “simbolici” per la rappresentazione della conoscenza, in cui le informazioni venivano codificate in algoritmi da umani esperti, insieme alle regole necessarie al funzionamento dei programmi. Tale approccio ha condotto alla creazione di forme di intelligenza simulata, capace di risolvere problemi complessi grazie alla mera potenza di calcolo delle possibili variabili e non alla capacità delle macchine di riprodurre le abilità intuitive e di ragionamento degli umani.
Oggi invece, grazie alla spinta di aziende come Amazon, Facebook, Microsoft e Google, si sta affermando un nuovo paradigma di programmazione cd “differenziabile”, che permette di sviluppare programmi che si autoregolano attraverso l’apprendimento, consentendo alle macchine di comprendere meglio il mondo umano e di adattarsi ad esso, riuscendo così a modificare le proprie funzioni per affrontare problemi nuovi o sconosciuti. Ci troviamo di fronte a sistemi capaci del cd machine learning (apprendimento automatico), tra cui spiccano le reti neurali, cioè modelli computazionali che hanno l’obiettivo di emulare il funzionamento di modelli biologici e che sono alla base del cd deep learning (apprendimento profondo).
Negli ultimi anni la crescita di questo settore è stata così impattante da essere paragonata alla scoperta dell’elettricità. Una conferma può ricavarsi da dati riguardo al mercato del Cognitive Computing, dall’analisi dei quali possiamo osservare come nel 2017 questo abbia raggiunto una valutazione complessiva di 12 miliardi di dollari, con un incremento di più del 50% rispetto all’anno precedente. L’AI sta diventando una parte fondamentale dell’infrastruttura informatica aziendale e si prevede che il settore continuerà a crescere raggiungendo una quota stimata di 46 miliardi di dollari nel 2020.
L’avvento dell’AI comporta però anche numerosi rischi, come ad esempio:
1) Diminuzione dei posti di lavoro. Numerosi saranno gli impieghi rimpiazzati dalle macchine. La speranza è che (come già avvenuto in passato) lo sviluppo di nuove tecnologie possa favorire la creazione di nuovi posti di lavoro. Ad esempio saranno necessarie figure apposite per la predisposizione di “training set”, pacchetti di dati usati dalle macchine per formare il proprio bagaglio conoscitivo. Tuttavia, contrariamente ai precedenti passaggi da una fase all’altra, il numero di posti creati dovrebbe essere significativamente inferiore a quelli persi.
2) Privacy. L’AI è usata in molti ambiti (finanziario, sanitario, intelligence), ed in particolare dalle aziende con lo scopo di prendere maggiore consapevolezza sul loro operato e incrementare il loro vantaggio competitivo. Ciò rende sempre più preziosa l’attività di raccolta e la gestione di dati. I dati, infatti, hanno una rilevanza fondamentale per lo sviluppo dell’AI, essendo il deep learning una tecnologia data-driven, cioè guidata dai dati, senza i quali qualsiasi algoritmo di apprendimento automatico non potrebbe mai funzionare. Non a caso i dati sono considerati nell’epoca moderna il nuovo petrolio, in quanto rappresentano un combustibile indispensabile per il corretto funzionamento dell’AI. Tale meccanismo però può portare conseguenze disastrose sotto il profilo della tutela dei diritti fondamentali della persona, soprattutto quando i dati vengono elaborati dall’AI con finalità di profilazione degli utenti, come nel caso Cambridge Analytica.
3) Controllo. I sistemi di AI durante l’apprendimento sviluppano una conoscenza propria che risulta difficilmente interpretabile da un essere umano. Ciò rappresenta un problema, anche in ragione dell’interdisciplinarietà della materia, quando queste tecnologie sono utilizzate in campi particolarmente delicati, come in ambito medico o militare. Per questa ragione gli studi più recenti in materia stanno cercando di sfruttare la potenza di questi sistemi unitamente ad un maggiore controllo sugli stessi, al fine di stimolare la fiducia dei cittadini e degli operatori tecnologici.

Le linee guida adottate dalla Commissione Europea si pongono un duplice e ambizioso obiettivo: in primis favorire l’ aumento degli investimenti in sistemi di AI nel prossimo decennio, per almeno 20 miliardi di Euro all’anno; in secondo luogo trovare soluzioni di natura più o meno tecnica al fine di limitare i rischi sopra elencati, mantenendo un adeguato livello di trasparenza e responsabilità nell’utilizzo dell’AI.
Il codice etico sarà messo in pratica in una fase di applicazione sperimentale da giugno a dicembre 2019. In questi sei mesi, gli operatori pubblici e privati saranno chiamati ad applicare nella pratica i quattro principi e i sette requisiti basilari individuati dalle linee guida operative.
In seguito a questa fase di sperimentazione sarà valutata dall’Alleanza europea per l’AI e da un gruppo di esperti di alto livello la sostenibilità operativa delle linee guida al fine di apportare le dovute modifiche/integrazioni.
I quattro principi essenziali per un’AI affidabile sono stati individuati dalla Commissione come segue:
1) Respect for human autonomy
2) Prevention of harm
3) Fairness
4) Explicability
Tali principi si sostanziano in sette requisiti applicativi:
1) human agency and oversight: questo primo principio prevede la costante presenza di un controllo umano, l’obiettivo dell’AI è migliorare le azioni dell’uomo e i suoi diritti, non limitare la sua autonomia;
2) technical robustness and safety: gli algoritmi devono essere sicuri, al punto tale da risultare di sicura affidabilità anche a fronte di imprevisti e/o malfunzionamenti;
3) privacy and data governance: i cittadini devono avere il pieno controllo dei propri dati personali e devono essere sempre informati dell’utilizzo che ne viene fatto, in conformità con il GDPR;
4) transparency: la trasparenza può essere garantita solo tramite la tracciabilità dei sistemi di Intelligenza Artificiale;
5) diversity, non-discrimination and fairness: i sistemi di Intelligenza Artificiale dovrebbero garantire la diversità e la non discriminazione, inoltre deve essere garantita l’equità prevedendo appositi meccanismi di ricorso e di responsabilità contro le decisioni degli algoritmi e per ogni caso di danni o incidenti;
6) environmental and societal well-being: i sistemi di Intelligenza Artificiale dovrebbero essere utilizzati per migliorare il benessere sociale e ambientale, la sostenibilità e la responsabilità ecologica
7) accountability: dovrebbe essere garantito un adeguato livello di responsabilità per i sistemi di Intelligenza Artificiale e i loro risultati.
L’adozione del codice etico per la progettazione di sistemi di AI affidabile rappresenta un grande passo verso un nuovo modello di sviluppo tecnologico più responsabile e consapevole e potrebbe contribuire a combattere diffidenza degli utenti stabilendo regole chiare e precise a tutela di tutte le parti in gioco, consumatori o aziende. Nonostante la mancanza negli Stati europei di grandi protagonisti del settore, ormai monopolizzato da realtà come quelle cinesi o statunitensi, che sfruttano il vantaggio competitivo di potersi approvvigionare a fonti di dati pressoché illimitate, l’UE prosegue nel suo percorso regolatore iniziato con l’adozione del GDPR per la protezione dei dati, dimostrandosi realtà all’avanguardia da un punto di vista giuridico e culturale.
Marco Schirripa