Il boom di utenti di ChatGPT, che ha raggiunto i 100 milioni di utenti attivi mensili in un paio di mesi, ha sicuramente fatto notizia.
Una tecnologia di frontiera come l’intelligenza artificiale è improvvisamente diventata pop: la capacità di simulare un’interazione umana ci ha fatto comprendere che un primo, potenziale impatto sull’economia reale e sulla vita quotidiana potrebbe essere imminente.
Una AI a portata di tutti
Al di là della (consueta) ondata di sciocchezzaio mediatico e dell’aperto luddismo sui social media, è assolutamente necessario domandarsi quali sono i rischi e le opportunità dell’intelligenza artificiale.
Che, lo stiamo vedendo ogni giorno in decine di post su LinkedIn, può facilmente essere utilizzata in molti contesti, con competenze decisamente basilari e senza investimenti in infrastruttura o dispositivi.
Bastano il proprio PC e una connessione a internet.
L’attenzione del Regolatore
Normale, quindi, che ogni lavoratore e ogni impresa si stia interrogando su una ridefinizione delle professioni e dei modelli di business che è già oggi in corso.
Ed è altrettanto normale che anche le istituzioni si siano interrogate su come limitare i rischi dell’intelligenza artificiale, senza impedire di coglierne le opportunità.
La vicenda Garante della Privacy vs. ChatGPT è l’ennesima puntata di un confronto tra Regolatore e società tecnologiche.
E poco importa che una pletora di tifosi abbia invaso i social media di post sulla “deriva medioevale” italiana: alla fine, ChatGPT si è adeguato, un caso che ha già fatto scuola.
Il cantiere europeo
È atteso nel giro di alcune settimane, poi, il via libera al cosiddetto “AI Act”, cioè l’iniziativa della Commissione Europea per definire un quadro legale sull’intelligenza artificiale, descrivendo come aziende e governi possono utilizzare questa tecnologia per tutelare i diritti e la sicurezza degli utenti.
Una mossa che ha sollevato diverse critiche e ironie sulla passione europea per “normare” l’innovazione: è francamente impossibile non interpretare almeno una parte di questi commenti come una reazione “a nervi scoperti” di chi vede nella normativa un ostacolo all’ottenimento di profitti.
Effetto Bruxelles in arrivo?
Di fatto, l’AI Act potrebbe scatenare, come altri provvedimenti tra cui il GDPR, quell’Effetto Bruxelles che porta l’opinione pubblica e i Governi di altri Paesi a guardare con interesse al “modello europeo”, per poi adottarlo nella regolamentazione nazionale.
Anche nel caso dell’intelligenza artificiale, infatti, al centro ci sono i diritti degli europei, all’interno di un concetto importante, ma ultimamente un po’ dimenticato, di “cittadinanza digitale”.
Finance sorvegliato speciale
In particolare, l’AI Act dovrebbe individuare alcuni ambiti e settori a elevato rischio, tra cui la Sanità e la Finanza, in cui l’intelligenza artificiale sarà applicata con una supervisione umana.
Un mix di procedure, policy e tecnologie che permetta di monitorare l’operato dell’AI, per individuare eventuali interferenze di pregiudizi e bias cognitivi: l’uomo dovrà essere in grado di intervenire sul sistema, impedendo un impatto sulla popolazione. E, auspicabilmente, arrivando gradualmente a migliorare le capacità di analisi dell’AI.
Spiegare che cosa succede
Il tema è quello della “black box”. Il processo decisionale dell’intelligenza artificiale è una scatola nera: sappiamo che cosa ci entra, i dati di input, e che cosa ne esce, i dati di output.
Ma ignoriamo che cosa accade al suo interno, come funzionano realmente e nel dettaglio i processi decisionali. L’idea è essere in grado di spiegare passo passo, a ritroso, come l’AI è giunta a una determinata scelta. In gergo, si usa l’espressione “explainable AI”, cioè “AI spiegabile”.
Umana e artificiale
La scelta europea nasce dalla consapevolezza che l’intelligenza artificiale è tutt’altro che perfetta e autonoma. Qualcuno direbbe, non a torto, che non è intelligente: almeno, non nello stesso modo del nostro cervello.
Non a caso, si parla spesso della sua applicazione per snellire le operazioni ripetitive e di routine, lasciando agli umani solo la gestione delle anomalie e dei casi dubbi. Ma il percorso per il suo miglioramento è ormai avviato.
Il progetto GREEN.DAT.AI
Se ne occuperà anche GREEN.DAT.AI, progetto gestito da un consorzio europeo di 17 realtà, finanziato da Horizon Europe, che ha l’obiettivo di individuare strumenti di comprensione dei criteri con cui l’AI prende decisioni.
Proprio un’attività di monitoraggio, in linea con la normativa, per correggere prima, ed evitare poi, il rischio di distorsioni: un primo passo verso la supervisione necessaria per la compliance alla normativa in via di definizione.
Il ruolo di CaixaBank
A GREEN.DAT.AI partecipano aziende da 10 Paesi e diversi settori, tra cui l’Energia, la Mobilità e, naturalmente, il Finance. La spagnola CaixaBank, tra gli istituti bancari più all’avanguardia del vecchio continente, si occuperà di indagare uno use case dedicato all’individuazione delle frodi grazie a una AI “explainable”, di cui sia possibile, cioè, ricostruire e spiegare il processo di decisione.
Il progetto durerà fino al dicembre del 2025 e si occuperà anche di migliorare la sostenibilità energetica dell’analisi dei big data e, in sostanza, dell’AI stessa. Che si prepara già a qualificarsi come ESG.
Questo articolo è stato pubblicato sul numero di maggio 2023 di AziendaBanca ed è eccezionalmente disponibile gratuitamente anche sul sito web. Se vuoi ricevere AziendaBanca, puoi abbonarti nel nostro shop.