Ue, accordo storico sulla legge per l'intelligenza artificiale: riconoscimento facciale solo in casi limitati
Dopo una maratona di negoziati durata tre giorni, il Consiglio UE e il Parlamento europeo hanno raggiunto un accordo sulla proposta di norme armonizzate sull'intelligenza artificiale (IA). Il regolamento - il primo del genere al mondo - vuole garantire che i sistemi di intelligenza artificiale immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’UE. E, allo stesso tempo, stimolare gli investimenti e l’innovazione nell’IA in Europa. L’idea principale è di regolamentare l’intelligenza artificiale in base alla capacità di quest’ultima di causare danni alla società seguendo un approccio «basato sul rischio": si va dal rischio minimo a quello inaccettabile; maggiore è il rischio, più severe sono le regole.
Categorie di rischio nell'IA
La stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo e beneficeranno di un free-pass. I sistemi di intelligenza artificiale identificati come ad alto rischio saranno tenuti invece a rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. Le sandbox normative faciliteranno l’innovazione responsabile e lo sviluppo di sistemi AI conformi. Esempi di sistemi di intelligenza artificiale ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o per reclutare persone; o alcuni sistemi utilizzati nei settori delle forze dell’ordine, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio. Il rischio inaccettabile riguarda i sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone e saranno vietati. Questa blacklist include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti, come giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori o sistemi che consentono il «punteggio sociale» da parte di governi o aziende e alcune applicazioni di polizia predittiva.
Impatto e applicazioni delle nuove norme IA
Inoltre, alcuni usi dei sistemi biometrici saranno vietati, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o il riconoscimento facciale in tempo reale ai fini delle forze dell’ordine in spazi accessibili al pubblico (con eccezioni ristrette). L’accordo raggiunto chiarisce gli obiettivi in cui tale uso è strettamente necessario ai fini dell’applicazione della legge e per i quali le autorità incaricate dell’applicazione della legge dovrebbero quindi essere eccezionalmente autorizzate a utilizzare tali sistemi. L’accordo prevede ulteriori garanzie e limita queste eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili , come gli attacchi terroristici e alla ricerca di persone sospettate dei crimini più gravi.
Regolamentazione dei Rischi Specifici nell'IA
Vi è poi la categoria dei rischi specifici, quali le ormai famose chatbot. Quando le utilizzano, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deepfake e altri contenuti generati dall’IA dovranno essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che i contenuti audio, video, testo e immagini sintetici siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente.
Esclusione di alcuni settori dalle norme IA
Il regolamento non si applica a settori al di fuori del campo di applicazione del diritto dell’UE e non dovrebbe, in ogni caso, pregiudicare le competenze degli Stati membri in materia di sicurezza nazionale o qualsiasi entità incaricata di compiti in questo settore. Inoltre, la legge sull'IA non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Allo stesso modo, l’accordo prevede che il regolamento non si applichi ai sistemi di intelligenza artificiale utilizzati al solo scopo di ricerca e innovazione, o alle persone che utilizzano l’intelligenza artificiale per motivi non professionali.
Sanzioni per le violazioni delle norme IA
Le multe per le violazioni della legge IA sono state fissate come percentuale del fatturato annuo globale della società incriminata nell’anno finanziario precedente o un importo predeterminato, a seconda di quale sia il più alto. Si tratterebbe di 35 milioni di euro o del 7% per le violazioni delle applicazioni IA vietate, di 15 milioni di euro o del 3% per le violazioni degli obblighi della Legge IA e di 7,5 milioni di euro o dell’1,5% per la fornitura di informazioni errate. Tuttavia, l’accordo provvisorio prevede massimali più proporzionati sulle ammende amministrative per le PMI e le start-up in caso di violazioni delle disposizioni della legge IA.
Promozione dell'innovazione e impatto sulle pmi e start-up
Al fine di creare un quadro giuridico più favorevole all’innovazione e di promuovere l’apprendimento normativo basato sull'evidenza, le disposizioni relative alle misure a sostegno dell’innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione. In particolare, è stato chiarito che le sandbox normative dell’IA, che dovrebbero stabilire un ambiente controllato per lo sviluppo, il test e la convalida di sistemi innovativi di intelligenza artificiale, dovrebbero anche consentire il test di sistemi innovativi di intelligenza artificiale in condizioni reali. Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di intelligenza artificiale in condizioni del mondo reale, in condizioni e garanzie specifiche. Per alleviare l’onere amministrativo per le imprese più piccole, l’accordo provvisorio include un elenco di azioni da intraprendere a sostegno di tali operatori e prevede alcune deroghe limitate e chiaramente specificate. L’accordo prevede che la Legge IA si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.