#DEFINE BANKING

Garantire l’autenticità di foto e documenti, nell’era dell’AI generativa

TrueScreen AI generativa autenticità foto e documenti

Fabio Ugolini, CEO di TrueScreen

L’intelligenza artificiale generativa è solo l’ultimo strumento a disposizione di chi vuole manipolare la realtà. Oggi la manipolazione visiva e audio è arrivata a tali livelli da costringerci a chiederci: "Se tutto può essere generato, cos’è reale?".

In questo episodio abbiamo affrontato questo tema sconfinato e al limite del filosofico, cercando però di focalizzarci subito su come la necessità di mantenere la distinzione tra vero e falso sia fondamentale in una serie di ambiti, tra cui ovviamente il settore finanziario.

banner episodi podcast

Essere in grado di accertare se un documento o un’immagine sono veri e corrispondono alla realtà è infatti essenziale per banche e assicurazioni. Ne abbiamo parlato con Fabio Ugolini, CEO di TrueScreen, in un episodio del nostro podcast “#define banking”.

AG. L’intelligenza artificiale generativa è una tecnologia a elevatissimo potenziale, ma che comporta anche molti rischi, tra cui l’utilizzo a scopi criminali o fraudolenti. Quanto è concreto, al momento, il pericolo che il virtuale non sia più distinguibile dal reale? E siamo appena agli inizi di questo problema?

FU. Il pericolo è concreto e sta crescendo esponenzialmente. Quando ho iniziato a seguire questa materia mi aspettavo questa evoluzione, ma non immaginavo che sarebbe avvenuta con questa velocità.

Appena un anno fa, scherzavamo sul fatto che le immagini generate da AI fossero facilmente riconoscibili per errori particolarmente evidenti, come le sei dita di una mano. Questa fase è durata poco ed è già finita: in alcuni casi l’AI prevede addirittura delle unghie tenute male, oppure mangiucchiate, perché più verosimili.
Distinguere il vero dal falso sta diventando sempre più complesso.

In un futuro distopico, ma del tutto plausibile, potremmo trovarci a dover sospendere il nostro giudizio sulla veridicità di un dato, di una fotografia o di un video. Riconoscere di non essere in grado di stabilire la verità di un'informazione, limitandosi a riceverla per quella che è, mina le fondamenta di ciò che siamo abituati a considerare come realtà.

Ci sono numerosi ambiti in cui questa sospensione del giudizio non è tollerabile: nelle relazioni interpersonali, negli scambi commerciali, nelle comunicazioni governative. La questione della verità, della sua riconoscibilità, è una sfida che dobbiamo affrontare ora. In altri contesti, soprattutto nella sfera privata, probabilmente non avremo molta possibilità di agire.

La tecnologia, però, non sarà nostra alleata. Spesso sento parlare di strumenti capaci di discernere se un'informazione sia vera o falsa, analizzandola. In pratica, ci si aspetta che una AI riconosca un'altra AI. Ma, allora, chi deciderà quale intelligenza artificiale sia "buona", ossia quella capace di stabilire cosa sia vero e cosa no, e che possa essere universalmente accettata? Questa sembra una questione estremamente complicata. Mi sembra molto complesso

Anche ignorando i formalismi, le soluzioni che si stanno testando al momento forniscono risultati di difficile interpretazione. Ad esempio, un’immagine che è stata modificata nel 5% dei suoi contenuti, andrebbe ritenuta vera al 95%? Anche se quel 5% ne avesse alterato in modo radicale i contenuti?

AG. Siamo evidentemente di fronte a un tema che richiede un cambio del nostro modo di pensare. A livello di normative e di tecnologia, e ne parleremo a breve. Ma c’è anche un terzo fattore, cioè le persone. Per le generazioni di una volta, una cosa è vera se l’ha detta o mostrata la televisione. Le generazioni native digitali stanno crescendo diciamo con gli “anticorpi”, cioè con la consapevolezza che tutto può essere fake?

FU. È un tema molto ampio ma sì, sarà necessario ripensare il concetto di vero e falso, in base però al contesto.

Nell’arte, ad esempio, le nuove tecnologie stanno creando nuove forme, in cui vero e falso possono anche convivere. In altri, invece, non possiamo perdere il concetto di verità.

Le dichiarazioni di un primo ministro, un documento ufficiale, l’informazione pubblica, i rapporti commerciali, un contratto: sono tutti casi in cui dobbiamo avere la certezza che le informazioni siano, appunto, vere.

E ci servono strumenti deterministici, in grado di dare certezze: verità al 100%, non al 95% o al 72%.

Non sempre, ovviamente. Una foto personale ha un valore affettivo per me, ma non deve essere riconosciuta da terzi. In altri casi, invece, l’informazione va garantita come vera. Il problema è già di fronte a noi e dobbiamo risolverlo ora. Più aspettiamo, più accettiamo che emerga l’idea di gradazioni di vero e falso, sempre più indistinguibili.

AG. Quali sono le conseguenze per le imprese finanziarie, bancarie e assicurative?

FU. Pensiamo, per esempio, a una constatazione amichevole dopo un incidente stradale. Il conducente del Veicolo A ha le competenze per modificare delle immagini, mentre quello del Veicolo B no.
Il primo può manipolare le immagini per creare una realtà inesistente, inserendo nella pratica dei dati che vanno a proprio vantaggio. Danni che non sono avvenuti, ad esempio. Posso immaginare moltissime pratiche assicurative e bancarie in cui vale lo stesso principio.

Già con i bonus edilizi abbiamo avuto casi di manipolazione, peraltro senza neppure usare l’intelligenza artificiale. La fotografia del medesimo impianto potrebbe essere stata utilizzata per certificare lavori svolti in luoghi diversi. Ci sono app utilizzabili da chiunque che permettono di modificare la geolocalizzazione, oppure la data e l’ora registrate dal dispositivo.

Con l’intelligenza artificiale, chi vuole perpetrare una frode ha uno strumento ancora più potente a propria disposizione.

È impensabile che la pubblica amministrazione e le imprese mettano in campo le risorse necessarie ad andare a verificare tutti i casi e tutte le pratiche. Serve quindi uno strumento tecnologico che permetta di garantire l’autenticità delle informazioni che hanno un valore legale, politico, sociale ed economico, per evitare che la verità ci sfugga di mano, causando danni enormi allo Stato e alle imprese.

AG. Qual è la proposta di TrueScreen?

FU. Siamo partiti da due assunti fondamentali. Il primo, come già anticipato, è che in futuro sarà estremamente difficile determinare con certezza cosa sia vero o falso, attraverso un'analisi a posteriori. Non avremo una AI in grado di smascherare un'altra AI.

Il secondo assunto è che, nel futuro, sarà imperativo garantire l'autenticità dei dati direttamente dalla fonte. Si tratta di un'affermazione audace, ma di cui siamo fermamente convinti. Per questo motivo, abbiamo sviluppato un processo strutturato, una metodologia forense vera e propria, che assicura l'autenticità di fotografie, video, audio, screenshot e altri tipi di dati.

Abbiamo integrato questa tecnologia all'interno di un'architettura mobile, una soluzione tecnologica che tutti noi abbiamo a portata di mano, in grado di acquisire informazioni con valore probatorio. Queste informazioni, grazie alle caratteristiche che rispettano gli standard internazionali, possono essere riconosciute come incontestabili in un contesto legale.

La tecnologia è facilmente integrabile in vari settori, come quello delle assicurazioni, delle banche, degli studi legali, dell'architettura e della consulenza, per chiunque abbia la necessità di garantire l'autenticità dei dati direttamente dalla loro fonte.