Il titolo dell’episodio (e di questa intervista scritta) non lascia spazio a dubbi. Parliamo di che cosa sta succedendo ai dati di banche e assicurazioni (ma non solo) con l’ospite di oggi: Michele Santulin, Senior Director Financial Sector di Dell Technologies.
Alberto Grisoni. Michele, sono anni che parliamo dei dati come una risorsa strategica per la banca del futuro, il petrolio del nuovo millennio. E stiamo seguendo il lungo percorso intrapreso per gestirli al meglio. Eppure, c’è il rischio che dopo anni passati ad allontanarsi dallo storico problema dei silos, le banche stiano paradossalmente tornando al punto di partenza?
Michele Santulin. Sì, esatto. Per capire quello che sta accadendo dobbiamo guardare alla trasformazione digitale che stiamo vivendo. Gli utenti si stanno abituando a fruire tutti i servizi tramite smartphone e browser.
In futuro, i servizi digitali si distingueranno per la capacità di offrire servizi, sempre più personalizzati. E questo obiettivo è strettamente legato ai dati che la banca ha a disposizione. Servono più dati possibili per poterli correlare e fruire velocemente, anche real time. Dalla geolocalizzazione agli interessi, queste informazioni permetteranno di offrire i servizi migliori.
Per le banche, questo significa arrivare a una piattaforma che permette di realizzare servizi nel modo più veloce possibile. C’è una frase molto nota che dice che le banche del futuro saranno software house che si occuperanno di servizi finanziari. Sembra futuristico ma è assolutamente attuale: le Fintech lavorano così. La de-fi funzionerà così.
I dati delle banche nascono in silos. E le aziende hanno servizi applicativi che fanno sì che i dati risiedano in repository non congiunti tra loro. C’è sicuramente l’esigenza di arrivare a repository unici in cui convogliare tutti questi dati per correlarli.
È il tema del data lake e dei big data, molto enfatizzata qualche anno fa. Un percorso che le banche hanno intrapreso ma, a oggi, obiettivamente non completato.
Questa esigenza è ancora attuale. Ma nel frattempo è esploso il fenomeno del cloud: i clienti di diversi settori si sgravano di una serie di responsabilità fruendo di servizi in una modalità cloud pubblica. Le aziende cercano innovazione uscendo dal concetto “faccio tutto in casa” e vanno nel cloud.
E questo è ottimo. Ma per non ritrovarsi in una situazione di lock-in presso un cloud provider, le aziende si appoggiando a più cloud. Sembra un multi-cloud, ma in realtà è un cloud multiplo: su questo tema torniamo a breve. Ora mi interessa sottolineare che questo sta ricreando nuove segmentazioni e silos di dati presso i diversi cloud a cui banche e assicurazioni si appoggiano per i vari servizi. Questo rischio oggi è forte, sul mercato.
AG. Quindi abbiamo due risorse preziose, il cloud da una parte e i dati dall’altra, che potrebbero fare un salto di qualità all’IT delle aziende finanziarie e assicurative. Eppure torniamo a sentire concetti come silos o lock-in, che pensavamo essere tipici delle architetture Legacy. Come si colgono le opportunità di queste tecnologie minimizzando i rischi?
MS. La sfida, per le banche, è evitare il lock-in importante che potrebbe derivare dal portare applicazioni, dati e infrastruttura presso un unico vendor. Una frase a effetto, ma che rende bene l’idea, è che “i clienti rischiano di ricrearsi il mainframe in cloud e di ripagare a rate l’accesso ai loro stessi dati”.
I clienti non vogliono contratti limitanti ma performance. E stanno fruendo di più cloud provider, definendo la loro strategia multi-cloud. In realtà, è un cloud multiplo: stanno creando contratti e servizi con più cloud provider. E così facendo stanno disperdendo i dati in vari silos, perdendo di vista l’obiettivo di un dato fruibile e correlabile centralmente.
Qui entra in gioco un nuovo schema architetturale, che come Dell stiamo cercando di portare nel mercato, cioè usare il cloud per la parte computazionale e di servizi, ma tenendo fuori il dato. Che non è il petrolio, ma l’acqua del futuro: qualcosa che mi serve per vivere.
Ci sono società di data center di collocation e che hanno connessioni dirette con tutti i cloud provider. Tra queste Equinix, uno dei nostri partner. Mantenere il dato non in cloud, ma in una struttura di collocation adiacente, significa renderlo fruibile a tutti i provider di servizi. L’azienda ottiene così il meglio dei diversi modelli: i dati in un repository centrale, ma fruibili con un modello operativo cloud.
Questo disaccoppiamento tra computing e storage non comporta comunque una gestione tradizionale dello storage: la manutenzione è in opex, la fruizione è in modello cloud.
AG. Che i dati siano preziosi lo sa benissimo anche la criminalità informatica. Che con la pandemia è davvero esplosa: il fenomeno del malware continua a crescere sia come numero di attacchi sia come cifre richieste come riscatto. Le imprese, ora, non si chiedono più se saranno colpite, ma come reagire quando lo saranno.
MS. È esattamente così. Le aziende si sono rese conto che il rischio è concreto. L’attacco alla Regione Lazio, nell’estate del 2021, ha portato tutte le aziende a porsi il problema del ransomware.
La risposta a questa domanda è una sola: se l’attacco è inevitabile, devo avere tecnologie che mi permettano di minimizzarne l’effetto. Proteggendo il dato e garantendo la continuità del business aziendale, anche dal punto di vista della reputazione.
La soluzione più idonea al momento è creare una copia dei dati più importanti e tenerla scollegata dal network. Una copia offline che viene indicata in diversi modi, ad esempio una golden copy da mettere in una cassaforte digitale.
Oggi tutti i dati delle aziende, in qualche modo, sono online. Se qualcuno entra sistemi dell’azienda, accede anche a tutti i dati e può renderli inaccessibili tramite criptazione. Se hai una copia dei dati più importanti scollegata dalla rete, puoi affrontare un attacco ransomware, ristorando questa copia pulita dei dati.
Si parte dal mondo tradizionale del backup per fare un’ulteriore copia e sganciarla dal network per sicurezza.
Oltre alla golden copy, posso anche lavorare sull’analisi dei dati: intelligenza artificiale e machine learning possono analizzare la copia del dato che viene messa nel caveau per capire se l’attacco ransomware è in corso da tempo.
Stiamo imparando che questi attacchi durano molti giorni e i dati sono silenziosamente modificati per molto tempo, prima di dare un comando esecutivo che compromette il tutto e lo rende inaccessibile.
L’allineamento giornaliero della copia dei dati consente la early detection di eventuali modifiche in corso, facendo scattare un allarme se ci sono anomalie.
