Via libera ai principi generali del futuro Artificial Intelligence Act da parte di Parlamento e Consiglio Europeo. La UE si avvia a essere la prima giurisdizione al mondo a regolamentare l’intelligenza artificiale.
Alimentando lo sfottò per cui gli Stati Uniti innovano, la Cina copia e l’Europa regolamenta.
Alla ricerca di un equilibrio
L’AI Act si preannuncia come il frutto di un lungo confronto tra politici, tecnici, associazioni di ogni categoria e genere, filosofi ed esperti di etica. E, come ogni buon compromesso, scontenta molti.
La posta in gioco era altissima: trovare un equilibrio tra innovazione e tutela dei diritti delle persone. In ambiti importanti come la pubblica sicurezza, il diritto d’autore e, per quanto ci riguarda da vicino, la non-discriminazione nell’erogazione di servizi finanziari e assicurativi.
Il percorso del resto è ancora lungo. I principi generali andranno messi nel dettaglio e dovranno esprimersi sulle misure definitive sia il Consiglio sia il Parlamento, probabilmente a febbraio 2024. E da quel momento passeranno due anni, prima dell’entrata in vigore del futuro Regolamento.
L’approccio preventivo per i modelli di base...
Lo “spirito” preventivo della normativa emerge immediatamente guardando alle misure che riguardano i Foundation Model, distinti in base alla loro potenza di calcolo: maggiore è la potenza, maggiore è il loro potenziale impatto sulla società, maggiore sono i requisiti regolamentari.
Un foundation model, o “modello di base” in italiano (anche se traduzioni alternative e molto frequenti sono modello fondante, modello fondativo e simili) è un sistema di intelligenza artificiale molto grande, addestrato cioè su enormi moli di dati tipicamente non etichettati, e utilizzabile poi per differenti scopi specifici grazie alla sua adattabilità.
I modelli ad alto impatto, prima di essere immessi sul mercato, dovranno essere oggetto di una valutazione da parte degli sviluppatori, che dovranno condividerne la documentazione tecnica e giudicarne gli aspetti di trasparenza e di sicurezza informatica.
Se, invece, il modello non è ad alto impatto, sono previsti obblighi di trasparenza quando avviene la commercializzazione sul mercato europeo.
… e per i sistemi
Medesimo approccio preventivo e correlato al rischio anche per i sistemi specifici di intelligenza artificiale: in questo caso, viene valutato il rischio che un sistema presenta per i diritti fondamentali dell’uomo.
Il primo dei quattro livelli, il “basso rischio”, non prevede obblighi specifici.
Se guardiamo, invece, ai sistemi “ad alto rischio” ritroviamo invece l’obbligo di una valutazione del modello pre-impatto, corredata da indicazioni sulla mitigazione dei rischi e sul livello di sicurezza informatica. Anche in questo caso, per operare in Unione Europea servirà una documentazione tecnica dettagliata.
Da segnalare che se i sistemi potrebbero creare danni involontari ai cittadini, o a specifiche categorie fragili, le loro decisioni finali saranno sottoposte a supervisione umana.
Porte chiuse, invece, per i sistemi classificati a rischio inaccettabile, che minacciano cioè i diritti dell’uomo. Qui troviamo la manipolazione del comportamento delle persone, l’incitamento a comportamenti pericolosi e, attenzione, il social scoring. Su cui torneremo a breve.
Sono esclusi dalle norme i modelli di intelligenza artificiale utilizzati solo a fini di ricerca.
Trasparenza in primo piano
La parola trasparenza, lo abbiamo visto, ricorre spesso. Ovvio che sia così: già oggi alcuni contenuti creati con intelligenza artificiale sono difficilmente distinguibili da quelli generati dall’uomo.
Sarà obbligatorio, quindi, segnalare i contenuti prodotti con intelligenza artificiale generativa. E la normativa fissa altri paletti, la cui messa a terra è tutta da capire, come il rispetto del diritto d’autore e l’obbligo di utilizzare dati di qualità per lo sviluppo degli algoritmi.
Un capitolo importante sembra proprio riguardare le fonti dei dati: c’è una comprensibile, grande attenzione alla qualità della “alimentazione” dei sistemi di intelligenza artificiale. Anche perché è ormai noto che “garbage in, garbage out”
L’AI Act obbliga ovviamente a indicare se un video è un deep fake. Il che fa un po’ sorridere, visto che gli usi più spaventosi e pericolosi dei deep fake sono legati ad attività criminali o terroristiche.
Biometria e sicurezza: restano i dubbi
Le cronache ci dicono che il dibattito in sede europea sia stato durissimo sul riconoscimento biometrico. E, in particolare, per il suo uso ai fini di sicurezza.
Da un lato le potenzialità per prevenire e perseguire il crimine. Dall’altro le comprensibili preoccupazioni per la privacy dei cittadini, per i potenziali errori giudiziari legati a tecnologie non ancora ben conosciute, per derive dittatoriali legate, ad esempio, al riconoscimento facciale in tempo reale e al social scoring.
Il risultato ottenuto non tranquillizza più di tanto gli scettici ed è legittimo aspettarsi un vivace dibattito. L’AI Act dovrebbe prevedere il riconoscimento biometrico in casi specifici, tra cui la ricerca di persone rapite, o impedire un attacco terroristico che presenta una minaccia “concreta”.
Ma anche casistiche più opinabili, come individuare una persona che potrebbe avere commesso un reato particolarmente grave, tra cui stupro, omicidio, terrorismo, traffico di esseri umani, su autorizzazione del giudice.
La definizione di reati gravi resta un nodo particolarmente delicato per il futuro.
Resta poi il fatto che, per essere attivati in questi casi specifici, sistemi di riconoscimento facciale e biometrico in tempo reale debbano comunque essere installati e presenti sul territorio. E questo costituisce di per sé un potenziale pericolo per la privacy dei cittadini, specie se la sicurezza logica di quei sistemi (pubblici? privati?) dovesse essere violata.
Bando al Social Scoring: ma attenti alla definizione
L’AI Act dovrebbe proibire anche i sistemi che utilizzano le informazioni sensibili: etnia, convinzioni religiose o politiche. E anche il cosiddetto “social scoring”, definito come la valutazione di persone o gruppi in base al comportamento sociale o a caratteristiche personali note o previste.
Una definizione piuttosto ampia la cui implementazione andrà seguita con attenzione. Perché una sua declinazione estesa potrebbe comprendere molti sistemi a cui il finance guarda con attenzione.