Pressing Usa, regolamento Ue su IA può (in parte) slittare ma restano principi
Roma, 7 giu. (askanews) – Il regolamento Ue sull’Intelligenza artificiale (“AI Act”) potrebbe subire un ritardo, probabilmente di un anno, nell’attuazione della sua ultima parte più importante, relativa alla gestione dei “sistemi ad alto rischio”, che normalmente dovrebbe entrare in vigore il 2 agosto 2026; inoltre, con tutta probabilità verranno semplificati gli oneri burocratici che il regolamento prevede per le imprese (in particolare gli obblighi di presentare periodicamente dei resoconti alle autorità amministrative). Lo hanno spiegato venerdì 6 giugno fonti qualificate della Commissione europea a Bruxelles.
Tuttavia, hanno precisato le fonti, questi cambiamenti, che verranno introdotti probabilmente all’inizio dell’autunno con un nuovo “omnibus” (il controverso “veicolo” che questa Commissione europea ha già utilizzato più volte per proporre modifiche legislative, finora soprattutto in campo ambientale, riguardanti diverse normative allo stesso tempo) non toccheranno né le finalità principali del regolamento, né l’attuazione delle sue sezioni più importanti, che sono già entrate in vigore il 2 febbraio scorso (in particolare riguardo alle pratiche proibite per le applicazioni dell’Intelligenza artificiale, come il riconoscimento facciale, i comportamenti manipolativi, la sorveglianza biometrica non autorizzata, il riconoscimento delle emozioni), o che entreranno in vigore comunque, come previsto, il 2 agosto di quest’anno (in particolare gli obblighi per i modelli di Intelligenza artificiale con finalità generali, come GPT-4 e obblighi di trasparenza riguardo al “training” dei modelli).
Le fonti hanno spiegato, riportando alcuni esempi concreti, quali siano i sistemi di Intelligenza artificiale “ad alto rischio” a cui potrebbe applicarsi il rinvio di un anno dell’applicazione delle nuove norme: “Si tratta di sistemi che non sono proibiti, e non rientrano tra i modelli di intelligenza artificiale per finalità generali. Ad esempio, uno strumento di screening dei Curriculum Vitae per un datore di lavoro. Non sarebbe uno strumento illegale, proibito, non va contro i nostri valori fondamentali, ma è ad alto rischio. Perché? Perché sarebbe molto facile impostarlo, ad esempio, in modo da escludere le persone di colore”. Insomma non sarebbe lo strumento in sé che andrebbe vietato, ma il modo in cui potrebbe essere usato che andrebbe regolamento, in modo da impedire che violi la legge e i nostri valori fondamentali. Ecco perché è considerato “ad alto rischio”.
Questi strumenti, hanno osservato ancora le fonti, “potrebbero essere molto utili per un reclutatore, ad esempio, per un’azienda. Ma dobbiamo capire come sono stati formati (‘addestrati’, ndr), su quali basi, come sono impostati, qual è il loro obiettivo. E questo deve essere esaminato e valutato”.
“Un secondo caso – hanno aggiunto – potrebbe essere quello di un’applicazione per valutare gli studenti, per valutare i loro compiti o dare loro un voto. Sarebbe molto facile impostarlo in modo tale che, ad esempio, le ragazze ottengano due punti in meno e i ragazzi due in più. Questo sarebbe discriminatorio. Non diciamo che è discriminatorio in sé stesso: è un ottimo strumento, potrebbe essere molto efficiente, ma dobbiamo capire come è stato addestrato e come funziona”.
Le regole per questi sistemi “ad alto rischio” dovrebbero entrare in vigore il 2 agosto 2026. Ma ci sono attualmente discussioni, pressioni, in particolare da parte degli Stati membri e delle parti interessate. Ed è da qui che nasce la discussione sull’opportunità di un rinvio, di premere il pulsante di pausa (“stop the clock”). “Ci sono soprattutto – hanno riferito le fonti Ue – molte pressioni da parte degli sviluppatori di Intelligenza artificiale che dicono: non siamo pronti, e non saremo pronti entro il 2 agosto 2026 a rispettare queste regole, perché alcuni di questi modelli esistono già o sono attualmente in fase di sviluppo. Come possiamo garantire che ciò sia conforme alla vostra legislazione? Non abbiamo nemmeno sufficienti linee guida da parte vostra. La legge sull’intelligenza artificiale non è sufficientemente specifica al riguardo”.
“Molto probabilmente – hanno indicato le fonti – terremo conto di queste preoccupazioni dei fornitori di sistemi ad alto rischio e forse rinvieremo la scadenza legale. Ma solo questa, non le precedenti. Solo quella per i sistemi con i rischi più elevati. Non le altre due, perché sono già in vigore” o lo saranno entro il prossimo 2 agosto.
L’Omnibus digitale, in autunno, “riguarderà questa scadenza legale, ma probabilmente affronterà anche, in uno sforzo di semplificazione, l’onere amministrativo previsto dal regolamento sull’Intelligenza artificiale, e quindi tutti gli obblighi di rendicontazione per le aziende. Alcuni aspetti essenziali rimarranno: dobbiamo sapere come è stato addestrato un certo modello. Non c’è modo di aggirare questo problema. Dobbiamo capire. Ma poi, è davvero necessario che l’azienda presenti la rendicontazione due volte all’anno, o ogni anno, a un’autorità nazionale che poi valuterà, e ancora… Questo è troppo”.
Le fonti hanno anche riconosciuto che c’e “una forte spinta, non solo da parte degli stakeholder in Europa, ma soprattutto dagli Stati Uniti e dalle aziende statunitensi, per una legislazione più semplice, con meno oneri burocratici. E queste pressioni non riguardano solo l’Intelligenza artificiale a finalità generali, ma anche i sistemi ad alto rischio, riguarda tutto. Questa dagli Stati Uniti è la spinta principale, per la semplificazione”.
Comunque, hanno puntualizzato le fonti, “noi abbiamo chiarito che non annacqueremo il regolamento, i suoi obiettivi rimarranno, e anche la presidente della Commissione, Ursula von der Leyen, è stato molto chiara su questo”. Le proposte di modifica in arrivo con la proposta di “Omnibus digitale”, in autunno, mireranno a “rendere più facile per le aziende conformarsi” alle nuove norme “e avere meno oneri per loro. Soprattutto gli oneri amministrativi. Ma le norme sulle pratiche vietate e sull’Intelligenza artificiale a finalità generale non cambieranno”.
Rispondendo ai giornalisti durante la conferenza stampa al termine del Consiglio Ue sulle Telecomunicazioni, venerdì 6 giugno a Lussemburgo, la vicepresidente esecutiva Henna Virkkunen, responsabile per la Sovranità tecnologica, la Sicurezza e la Democrazia della Commissione europea, ha confermato questo punto. “Per quanto riguarda l’AI Act, penso sia molto importante sottolineare che non abbiamo intenzione di fare marcia indietro rispetto ai nostri obiettivi. Ciò che stiamo cercando di fare è capire come semplificare davvero le procedure, come ridurre la burocrazia e gli obblighi di rendicontazione” da parte delle imprese.
“Si tratta soprattutto – ha concluso Virkkunen – di ridurre la burocrazia, non di ridurre i nostri standard. Penso sia importante chiarirlo”.
Di Lorenzo Consoli e Alberto Ferrarese