Dati certificati per gli Agenti AI. TrueScreen, Data Authenticity Platform attiva nella certificazione digitale con valore legale, ha presentato una nuova funzionalità che riguarda la certificazione dei dati per gli agenti AI (agentic AI).
In questo modo, le organizzazioni possono certificare automaticamente ogni dato che un agente AI riceve, elabora e produce, con pieno valore legale.
La soluzione è stata presentata in anteprima al Forum InCyber di Lille, appuntamento europeo dedicato alla cybersecurity e al digital trust.
I limiti degli Agenti AI
Gli agenti AI stanno trasformando i processi aziendali in settori come assicurazioni, finanza, sanità e compliance. A differenza dei chatbot tradizionali, questi sistemi sono in grado di pianificare, decidere e agire in autonomia: interrogano database, generano documenti, inviano comunicazioni e prendono decisioni con impatti operativi e legali concreti.
Tuttavia, questa crescente autonomia non è accompagnata da un adeguato livello di tracciabilità dei dati.
Nella maggior parte dei casi, le aziende si affidano a log applicativi modificabili, privi di valore probatorio, rendendo difficile dimostrare con certezza cosa l’agente AI abbia ricevuto, elaborato e prodotto.
La soluzione di TrueScreen
Nel dettaglio, la nuova funzionalità di TrueScreen introduce un sistema di certificazione strutturato su quattro livelli che copre l’intero ciclo di vita degli agenti AI.
- Knowledge base: certificazione dei dati che alimentano l'agente (documenti, dataset, contesti RAG), con prova dell'integrità e della provenienza al momento della consultazione.
- Prompt e istruzioni: certificazione delle istruzioni ricevute dall'agente (system prompt, user prompt, configurazioni), che consente di dimostrare esattamente cosa è stato chiesto e da chi.
- Operazioni: certificazione di ogni azione intermedia dell'agente (chiamate a strumenti esterni, ragionamento, decisioni intermedie), trasformando il log in un audit trail con valore legale.
- Output: certificazione dei risultati prodotti (documenti, decisioni, analisi, comunicazioni) con sigillo digitale e marca temporale qualificata al momento della generazione.
Il processo segue criteri di qualità forense: i dati vengono verificati all’origine, sigillati con marca temporale qualificata conforme eIDAS e accompagnati da un report strutturato che documenta il contesto e la catena di custodia.
Il risultato è un’evidenza digitale immutabile e opponibile a terzi in tutti gli Stati membri dell’Unione Europea.
La soluzione si integra facilmente nei sistemi esistenti tramite REST API e protocollo proprietario, garantendo compatibilità con i principali framework per agenti AI (OpenAI, Anthropic, Gemini).
I team tecnici possono così introdurre checkpoint di certificazione con modifiche minime al codice, rendendo la certificazione parte integrante del workflow operativo.
Conformità normativa
La certificazione dei dati degli agenti AI risponde direttamente alle principali normative europee in fase di implementazione.
Difatti, l’AI Act introduce obblighi stringenti di registrazione automatica degli eventi per i sistemi ad alto rischio a partire dal 2 agosto 2026.
Mentre la Product Liability Directive estende la responsabilità al software AI e introduce una presunzione di difettosità che sposta l’onere della prova sulle organizzazioni
Infine, la direttiva NIS2 impone requisiti specifici in termini di integrità dei dati e gestione degli incidenti.
«Le organizzazioni stanno adottando agenti AI che prendono decisioni autonome con conseguenze legali concrete, ma nella maggior parte dei casi non dispongono di strumenti per dimostrare cosa questi agenti abbiano ricevuto, fatto e prodotto – ha commentato Fabio Ugolini, CEO e Co-Founder di TrueScreen. Con questa nuova funzionalità colmiamo un vuoto strutturale: trasformiamo ogni dato nel ciclo di vita dell’agente in un’evidenza certificata, immutabile e opponibile a terzi. Non è un miglioramento del logging, ma un cambio di paradigma: dalla ricostruzione a posteriori alla prova in tempo reale. Le aziende che entro agosto 2026 non avranno implementato sistemi di certificazione dei dati AI saranno esposte a rischi normativi, legali e reputazionali significativi».