INTERVISTA

Intesa Sanpaolo. BeFair: un’intelligenza senza pregiudizi

intesa sanpaolo intelligenza artificiale

Andrea Cosentini, Head of Data Science & AI di Intesa Sanpaolo

Intelligenza artificiale etica e responsabile per Intesa Sanpaolo. Il Gruppo ha da tempo avviato un programma di trasformazione digitale che prevede l’integrazione di soluzioni di artificial intelligence a supporto degli obiettivi del Piano d’Impresa 2022-2025, con particolare attenzione e sensibilità agli aspetti di fairness ed explainability.

L’obiettivo è infatti anticipare quanto richiesto dai regolatori in materia di tutela dei clienti e dei dipendenti, con il lancio di una soluzione innovativa: BeFair, che ha anche ottenuto la menzione speciale in occasione dei Premi ABI Lab 2022.

Massimo Proverbio, Chief IT Digital and Innovation Officer, ha recentemente dichiarato «stiamo utilizzando lo sviluppo di soluzioni AI a supporto del Business e delle funzioni di Governo del Gruppo, con particolare attenzione e sensibilità agli aspetti di fairness ed explainability, anticipando quanto i regolatori proporranno a tutela di clienti e dipendenti».

Il team e la nascita di BeFair

A occuparsi del progetto è il team di 50 data scientist che compongono la struttura interna alla Direzione Data Office di Intesa Sanpaolo, che dispone di una infrastruttura tecnologica costruita ad hoc per i loro sviluppi.

«Il progetto BeFair è stato sviluppato da questo team con la collaborazione di Fujitsu Laboratories of Europe, player qualificato nella ricerca scientifica in tema di trustworthy AI, e ha richiesto circa un anno per una prima soluzione utilizzabile – racconta Andrea Cosentini, Head of Data Science & AI di Intesa Sanpaolo. Si tratta, infatti, di un progetto in continua evoluzione, inserito by design in un solido processo interno di sviluppo delle soluzioni di AI, che comprende anche la “Roadmap to Fairness”. È applicato a tutti gli sviluppi di intelligenza artificiale realizzati, permettendoci di essere più efficaci nel rispondere ai bisogni dei nostri clienti e garantendo nello stesso tempo l’aderenza ai Principi Etici del Gruppo».

Pregiudizi e distorsioni dell’AI

Intento dichiarato di BeFair è evitare che i modelli di AI, potenzialmente oggetto di bias, riproducano e amplifichino tali discriminazioni nelle decisioni prese dagli algoritmi. «Uomini e algoritmi imparano attraverso un processo analogo – premette Cosentini – entrambi acquisiscono ed elaborano un’enorme mole di input che vengono usati per costruire un proprio processo decisionale. Grazie alla sempre maggiore potenza computazionale a disposizione, gli algoritmi di AI sono in grado di analizzare una grande quantità di dati per individuare dei pattern ricorrenti che sarebbero impossibili da scovare a occhio umano. Spesso, questi dati sono il frutto di decisioni umane registrate nel tempo, come un prestito concesso o non concesso, e possono portare con sé pregiudizi o distorsioni che riflettono quelli presenti nella nostra società».

Il framework di controllo

Un rischio che diventa estremamente rilevante nel momento in cui si opera in ambiti complessi, con un notevole impatto sugli individui, come l’erogazione del credito. «Per questo abbiamo sviluppato BeFair: un framework per il controllo e la mitigazione delle discriminazioni negli output prodotti dalle soluzioni di AI – continua Cosentini. Sviluppare e adottare un sistema di intelligenza artificiale in grado di individuare e correggere i pregiudizi, ci consente di rendere la nostra tecnologia robusta, etica e affidabile».

BeFair: intelligenza artificiale responsabile

BeFair fornisce, quindi, una valutazione sul grado di equità del dato che alimenta ogni algoritmo, controllando anche in che misura le sue predizioni risultano fair. «Inoltre il tool utilizza dei sofisticati modelli, capaci non solo di riconoscere ma anche di mitigare le discriminazioni individuate, generando delle decisioni algoritmiche il più possibile eque – precisa Cosentini. BeFair è un elemento fondamentale del framework che stiamo costruendo per lo sviluppo di una intelligenza artificiale responsabile».

Attenzione anche all’explainability

Un altro componente estremamente importante è l’explainability, ovvero le ragioni per cui un modello produce uno specifico risultato. Questo aspetto è campo d’indagine per la Banca insieme al mondo universitario.

Il futuro, inclusivo

Nel futuro, inoltre, l’intelligenza artificiale senza bias potrà portare una serie di vantaggi, anzi «moltissimi – precisa Cosentini. Intesa Sanpaolo presidia la fairness dei suoi algoritmi di AI rispettando i principi di salute, sicurezza e protezione dei diritti fondamentali dell’individuo. La possibilità di coniugare le potenzialità enormi dei sistemi di intelligenza artificiale con la loro affidabilità etica permetterebbe di ottenere decisioni veloci, imparziali e allo stesso tempo applicabili su larga scala».

L’impatto dell’AI sui processi

Intanto, gli algoritmi sviluppati da Intesa Sanpaolo supportano i processi e gli ambiti più disparati: «aiutano a ottimizzare il rifornimento dei bancomat, a prevenire e gestire le frodi informatiche, a rendere più rapidi i processi di stima del danno materiale derivante da piccoli incidenti automobilistici. Si tratta di applicazioni che contribuiscono a migliorare significativamente i processi interni, eliminando attività ripetitive e a basso valore aggiunto o svolgendo verifiche sistematiche e non più a campione – conclude Cosentini. Questi sono solo alcuni esempi, ma ci sono altre numerose diverse applicazioni».

 

Questo articolo è stato pubblicato sul numero di maggio 2022 di AziendaBanca ed è eccezionalmente disponibile gratuitamente anche sul sito web. Se vuoi ricevere AziendaBanca, puoi abbonarti nel nostro shop