L’intelligenza artificiale generativa è pronta all’uso? Ci sono casi d’uso concreti? Abbiamo i dati e le competenze per sfruttarli al meglio?
Ne abbiamo parlato con Umberto Pardi, Chief Commercial Officer di expert.ai, in un episodio del podcast “#define banking”, di cui questo articolo è un adattamento testuale.
AG. L’AI generativa è al centro dell’hype. Ma ci sono già dei casi di uso o delle applicazioni di successo nei mercati bancario e assicurativo?
UP. La nostra prospettiva è legata al nostro posizionamento sul mercato, dove oggi abbiamo da un lato grandi player tecnologici, dall’altro chi fa la parte implementativa dei progetti.
Noi vogliamo posizionarci sia in maniera alta sia come partner dei nostri clienti. E i casi d’uso concreti sono fondamentali per scaricare a terra la tecnologia oggi disponibile.
Un approccio che definiamo “ibrido” e che ci permette di fare leva sulle nostre tassonomie e reti semantiche, frutto di 30 anni di esperienza, integrandoli in Large Language Model per realizzare soluzioni concrete.
Tra queste, citerei il Dynamic KYC, soluzione legata al monitoraggio AML che monitora i rischi e gli alert potenziali relativi ai clienti di banche e assicurazioni. Una soluzione che grazie all’intelligenza artificiale monitora migliaia, se non milioni, di fonti per generare alert che segnalano eventuali rischi sul cliente e minimizzano i rischi di sanzioni da parte delle Autorità.
AG. Ci racconti qualche altro progetto in cui l’AI affianca un operatore umano?
UP. Una prima collaborazione interessante è quella con Banca Investis per la app NIWA, con cui il cliente può dialogare via chat per avere aggiornamenti su eventi e fatti di attualità potenzialmente impattanti sul mercato e, quindi, sui suoi investimenti.
Una modalità conversazionale in cui l’AI fornisce il valore aggiunto di monitorare e selezionare i contenuti rilevanti per il cliente, all’interno delle fonti informative identificate.
Dal punto di vista tecnologico, per noi era prioritario garantire la massima attinenza tra gli intenti del cliente della Banca e le risposte generate dal motore. L’AI doveva quindi essere capace di analizzare le conversazioni tra banca e cliente, valutare l’attinenza di input e output, validare le risposte e fornirle al cliente.
Un passaggio fondamentale per gestire il rischio delle cosiddette “allucinazioni”, oggi ancora molto impattanti quando si parla di human like.
AG. Molti di noi, sperimentando con le varie soluzioni di AI Generativa, hanno avuto modo di assistere a queste “allucinazioni”, in cui l’algoritmo genera contenuti inesistenti o falsi. Riusciremo a gestire le allucinazioni, strada facendo, o dovremo sempre prevedere una fase di controllo da parte di un umano?
UP. Sicuramente potrebbero esserci step graduali nel percorso di sviluppo dei prossimi anni. In expert.ai stiamo lavorando proprio sugli asset proprietari per la parte di knowledge, e quindi le tassonomie sviluppate negli ultimi 30 anni.
Bisogna partire sempre dalla pulizia del dato, poi dare coerenza, limitando le allucinazioni attraverso le tassonomie che guidano la risposta e danno soprattutto la possibilità di capire perché è stata data quella risposta.
La tecnologia, comunque, sta continuamente migliorando a grande velocità e quindi, a tendere, avremo sicuramente la possibilità di limitare queste allucinazioni. È però difficile prevedere se avremo bisogno di un controllo umano, anche in presenza di un output preciso. Molto dipenderà dalla tipologia di dati che avremo e alla criticità della risposta.
AG. Le banche, di dati, ne hanno moltissimi. Sono pronti, quindi sufficientemente organizzati e di qualità, per essere utilizzati per la Gen AI? O bisogna ancora lavorare sulla qualità del dato?
UP. Ogni azienda è un caso a sé. Alcune si sono mosse in ampio anticipo sul tema della gestione e della pulizia del dato e oggi sono più pronte ad accelerare verso l’intelligenza artificiale. Altre sono ancora in fase di pulizia dei dati.
L’elemento più rilevante resta la possibilità di realizzare in maniera concreta casi d’uso e business case, risolvendo problemi reali.
Il tema principale è la segregazione del dato, che è un dato proprietario. Serve un disegno architetturale delle soluzioni che eviti il rischio che un dato proprietario possa uscire all’esterno dell’azienda.
AG. Nelle scorse settimane avete presentato i vostri piani per il prossimo futuro. Nello scenario italiano vedete delle opportunità, in termini di potenziali acquisizioni? E ci sono, invece, le competenze necessarie alla crescita organica?
UP. Inizio dalle competenze. Che oggi, sul mercato, non ci sono. Vanno costruite. Noi stiamo lanciando dei CoE, Center of Excellence, per acquisire ma soprattutto formare talenti che lavorino poi con noi e sui nostri clienti.
Oggi molte aziende stanno investendo, ma stiamo ancora costruendo competenze che non ci sono. Certo, ci sono realtà che si sono mosse prima, specie sula parte del dato strutturato e del machine learning, e che oggi grazie agli LLMs si stanno spostando anche sul mondo del natural language processing.
Questi due mondi inevitabilmente andranno a toccarsi e a creare un mix di competenze. Nel medio termine, direi in un orizzonte di un paio di anni, queste capacità saranno disponibili sul mercato.
Ed è per questo che anche noi ci stiamo muovendo in questo senso con il piano strategico, anche con eventuali operazioni di crescita inorganica, che ci consentano di incorporare sia competenze, sia casi d’uso da portare al mercato.