Intelligenza Artificiale: pro e contro dell’AI Act UE per le imprese

di Barbara Weisz

Pubblicato 28 Giugno 2023
Aggiornato 2 Luglio 2024 07:54

logo PMI+ logo PMI+
AI Act, intervista a Giuseppe Vaciago: positivo l'approccio pragmatico ma troppi adempimenti per le imprese utilizzatrici, servono accordi internazionali di soft law per non rimanere fuori dal mercato.

L’AI Act vanta un approccio concreto e orientato al business, risk based e non etico, con sanzioni che svolgono un importante ruolo deterrente contro le violazioni, ma cela anche una serie di criticità per le imprese, per esempio in termini di valutazione dei rischi. Secondo Giuseppe Vaciago, partner di 42 Law Firm intervistato al riguardo da PMI.it, sono questi i tratti distintivi del Regolamento europeo sull’intelligenza artificiale, approvato il 14 giugno ed ora in attesa di valutazione da parte del Consiglio UE.

Si tratta di una norma perfettibile per Vaciago, secondo cui il problema numero è quello legato alle tempistiche: «anche se il testo sarà approvato a fine anno a all’inizio dell’anno prossimo, poi ci vorranno 24 mesi per l’applicazione dei vari Stati. Quindi, arriviamo a fine 2025 se siamo fortunati, se non all’inizio del 2026». Tenendo conto della velocità dell’evoluzione tecnologica, questo potrebbe essere un problema.

Analizziamo dunque pregi e difetti dell’AI Act, alla luce delle considerazioni di Vaciago, partendo prima dai suoi punti a favore.

I pregi dell’AI Act

L’AI Act, come ci spiega Vaciago, è «il primo testo organico di regolamentazione dell‘intelligenza artificiale a livello internazionale, tra le altre cose direttamente applicabile in tutti gli Stati membri. E, come è già stato per il GDPR, la legge europea sulla privacy – e come sarà per altri regolamenti in via di approvazione, come il Digital Service Act, il Digital Market Act o il Data Act – ha degli elementi di novità importanti».

Regolamento pratico e orientato al business

Il primo punto a favore è dato dall’impostazione del provvedimento, che «antepone il business (diciamo “gli aspetti economici”) ai profili etici, che invece stanno diventando importanti per chi sta producendo l’intelligenza artificiale».

Pensiamo alla posizione recentemente espressa da Sam Altman sul fatto che l’intelligenza artificiale comporta un rischio di estinzione dell’umanità».

Fra l’altro, lo ricordiamo, il fondatore di Open AI – la startup californiana che sviluppa Chat GPT – ha anche firmato un appello insieme ad altri Ceo della Silicon Valley sulla necessità di mitigare il rischio estinzione che potrebbe essere provocato dall’intelligenza artificiale, paragonata a fenomeni come le pandemie o la guerra nucleare.

Da questo punto di vista, l’approccio agli aspetti economici dell’AI è positivo. Anche perché «le intelligenze artificiali, soprattutto quelle generative di cui oggi tutti parlano, come Chat GPT, sono molto poco prevedibili», quindi è corretto dare alla legge un’impostazione concreta. Che non si ponga il problema delle potenzialità dello sviluppo dello strumento (non facili da prevedere) ma che invece «pone grande attenzione ai dati da cui le AI attingono, i cosiddetti dataset«.

Questa è in effetti una regolamentazione di cui abbiamo estremamente bisogno per arginare un fenomeno potenzialmente molto pericoloso».

I livelli di rischio

Il secondo pregio dell’AI Act, per Vaciago, è che la legge «non determina in maniera tassativa che cosa si può fare e che cosa invece non si può fare, ma presenta un approccio connesso al rischio. Tutto è basato sul rischio legato alla modalità di utilizzo, che va valutato concretamente caso per caso. Si chiama approccio risk based, ed è un approccio giusto, sempre anche in considerazione del fatto che noi non sappiamo quali saranno gli sviluppi della tecnologia, anche nel breve periodo».

«Il regolamento, in pratica, classifica le applicazioni dell’intelligenza artificiale in base al livello di rischio. Non dice “la biometria non si può utilizzare” ma stabilisce quando l’utilizzo rappresenta un rischio troppo alto per poterla applicare. I livelli di rischio identificati sono quattro: pratiche da vietare (rischio altissimo), rischio alto, rischio i limitato, rischio minimo».

«Ci sono poi altri parametri, ad esempio il rischio ambientale. In ogni caso, le varie pratiche vengono valutate in base a questo principio. Per esempio, l’uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, anche a posteriori, è considerato un livello di rischio altissimo e di conseguenza è vietato. Ma questo non significa che sia vietato in generale l’uso dell’intelligenza artificiale abbinata alla biometria».

Sanzioni

Il terzo aspetto positivo, secondo Vaciago, è legato alle sanzioni, «che sono anche molto impattanti: si può arrivare a 50 milioni di euro di sanzione, e quindi sono un deterrente importante».

I punti critici dell’AI Act

I punti critici dell’AI Act, per Vaciago, non solo legati soltanto alle tempistiche troppo dilatate (le norme non entreranno in vigore prima di fine 2025 -inizio 2026) – con il rischio quindi di risultare superate dall’evoluzione tecnologica – ma anche alle complessità applicative.

Complessità per le imprese

Il secondo punto critico del Regolamento, dunque, riguarda da vicino le imprese e si configura nella necessità di una serie di adempimenti per l’utilizzo di queste tecnologie. Ci sono precisi obblighi documentali, controlli e verifiche per tutti gli attori della filiera: i fornitori (chi produce intelligenza artificiale), i distributori (chi distribuisce sul mercato queste tecnologie) e gli utilizzatori, comprese le piccole e medie imprese.

«Per esempio, ci vuole una valutazione di impatto lato privacy, lato cyber security, sui diritti umani, e una valutazione di impatto etica e sociale. Questi sono costi che una piccola e media impresa deve mettere a budget se vuole utilizzare un sistema di intelligenza artificiale generativa che realizzi testi per il marketing, o anche un’AI non generativa per digitalizzare l’azienda». Sono comunque pratiche che richiedono tempo e denaro, perché prevedibilmente una PMI dovrà ricorrere a professionisti esterni.

In sostanza, secondo Vaciago, «va bene che una grande azienda come Open Ai attiva nell’intelligenza artificiale debba sottostare a tante regole, perché la produce, ma chi la utilizza dovrebbe avere la vita più semplificata possibile».

La seconda attività potenzialmente onerosa, più dal punto di vista di scelta strategica che non da quello economico, è la trasparenza: bisogna dichiarare, nel caso di AI ad alto rischio, l’utilizzo di quella intelligenza artificiale.

«Nel mondo dell’impresa più tradizionale, non c’è un grosso problema nel dichiarare l’utilizzo dell’intelligenza artificiale. Nel mondo dei servizi e delle Partite IVA, invece, questo aspetto non è sempre gradito».

«Faccio un esempio concreto che riguarda la mia professione: sto facendo molti eventi e mi rendo conto che gli avvocati non hanno assolutamente piacere a dichiarare al cliente che utilizzano l’intelligenza artificiale. Questo vale per le agenzie pubblicitarie, per tutte le forme di consulenza».

Il punto fondamentale è che in realtà noi abbiamo uno strumento, oggi, che non siamo in grado di prevedere e che ha delle complessità su cui è utile un dibattito molto aperto».

Accordi con i paesi che sviluppano AI

Il terzo rischio è legato al dibattito internazionale. Sempre Sam Altman si è già dichiarato in disaccordo con le normative UE, con specifico riferimento ad alcune tecnologie di ChatGPT. Al di là dell’aspetto tecnologico, il fatto è che «l’Europa sta mettendo delle regole applicative per soluzioni tecnologiche che non produce». E questa normativa, «che è la prima, è molto diversa dall’approccio statunitense e cinese allo stesso tema. Cosa che potrebbe allontanarci dal punto di vista del business».

Non è un aspetto da sottovalutare, «nel senso che alla fine se il dominio dell’intelligenza artificiale oggi dal punto di vista tecnologico è negli Stati Uniti o in Cina; dobbiamo sperare che anche loro abbiano voglia di applicare queste norme. Perché è vero che il mercato europeo conta ed è importante per tutti accedere al mercato europeo. Però è anche vero che c’è un limite alle regole che noi possiamo imporre quando le soluzioni tecnologiche non sono le nostre».

«Quindi, per tornare al punto di partenza, è positivo anteporre il business all’etica ma stiamo attenti al rovescio della medaglia, per cui magari il business rischiamo di perderlo, favorendo uno sviluppo economico di altre parti del mondo a danno dell’euro».

Come si risponde a questa criticità? «Dobbiamo aderire ad accordi internazionali di soft law. C’è la proposta di creare un comitato internazionale di regolamentazione dell’intelligenza artificiale che comprenda tutti gli Stati più importanti, se vogliamo un G7 allargato alla Cina o ad altri paesi», che rappresenti «un buon compromesso tra il rispetto delle regole e il business, perché altrimenti rischiamo davvero di non sviluppare le attività di economiche in Europa per colpa di una regolamentazione molto severa».