AI Act in equilibrio tra innovazione tecnologica e tutela del consumatore.
Il Parlamento europeo ha oggi approvato la prima legge sull’intelligenza artificiale, andando a definire, in particolare, quali sono i rischi legati all’uso dell’AI.
L’intento, come sottolineato da Brando Benifei e Dragos Tudorache, è difendere la privacy e la sicurezza dei cittadini, creando appunto confini e divieti, ma senza limitare l’evoluzione futura della tecnologia, grazie alle sperimentazioni in sandbox, dedicate a PMI innovative e startup.
IA Act: il modello risk based
Il Regolamento europeo sull’intelligenza artificiale ha così definito quattro principali livelli di rischio per l’IA, o meglio per il suo utilizzo.
Livello 4. Rischio inaccettabile: questo è il più alto livello di rischio e riguarda il divieto di utilizzare i sistemi di AI che possano rappresentare una minaccia alla sicurezza e ai diritti delle persone;
Livello 3. Rischio elevato, ma non per questo vietato: la capacità predittiva dell’IA può trovare applicazioni in molti frangenti, persino nell’ambito della polizia predittiva, ovvero la possibilità di prevedere un reato utilizzando appunto questa tecnologia. L’AI Act prevede quindi una serie di controlli rigorosi su queste tipologie di attività;
Livello 2. Rischio limitato: qui rientrano altri usi dell’intelligenza artificiale, come ad esempio i chatbot, già diffusi per la ricerca di informazioni e la creazione di contenuti. L’utente, però, chiarisce l’AI Act, dovrà essere in grado di riconoscere immediatamente un contenuto generato dall’IA. La trasparenza passa quindi da una sorta di bollino che permetta di identificare la presenza dell’intelligenza artificiale;
Livello 1. Rischio minimo: in questo ultimo livello di rischio rientrano i videogiochi che prevedono l’utilizzo dell’AI e altre soluzioni, come ad esempio i filtri antispam.
Quando entrerà in vigore
Per l’entrata in vigore, a livello esecutivo, dell’AI Act bisognerà aspettare altri 2 anni, quindi tra la fine del 2025 e l'inizio del 2026.