Seleziona una pagina

Artificial Intelligence Act: a che punto è la legge europea sull’intelligenza artificiale

  11 luglio 2023

I Paesi dell’Unione europea potrebbero essere i primi al mondo a beneficiare di una precisa regolamentazione nell’utilizzo dell’intelligenza artificiale, che riguardi in particolare i delicati aspetti del riconoscimento facciale e degli algoritmi predittivi del comportamento. 

Data Act

 Dopo almeno due anni di lavoro, il regolamento europeo sull’intelligenza artificiale inizia concretamente a prendere forma. Il primo step significativo risale allo scorso 11 maggio quando, con un voto che molti hanno definito storico, i Comitati Giustizia e Mercato Interno del Parlamento europeo hanno approvato il testo di una proposta di legge – nota come Artificial Intelligence Act – che intende regolamentare lo sviluppo e l’uso dell’intelligenza artificiale nei Paesi membri. La votazione successiva, che doveva coinvolgere l’Eurocamera riunita in seduta plenaria, si è tenuta lo scorso 14 giugno, data in cui, con 499 voti a favore, 28 contrari e 93 astensioni, il Parlamento europeo ha adottato la sua posizione negoziale sulla leggeOccorrerà ora attendere l’esito del negoziato con i 27 Stati membri rappresentati all’interno del Consiglio dell’UE. Va ricordato, infatti, che a livello di Unione, il potere legislativo viene esercitato dal Parlamento europeo e dal Consiglio.

La prospettiva è che si arrivi a un “codice” sull’IA entro la primavera del prossimo anno.

Intelligenza artificiale, cosa (non) si potrà fare con le nuove regole

Nell’impostazione data dall’Unione, l’intelligenza artificiale è un mezzo e non un fine, uno strumento cioè al servizio dell’uomo e dei cittadini. Inoltre, si punta a garantire che i sistemi di IA siano controllati dalle persone, sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Per questo, il testo finale prevede una serie di divieti. Vediamo quali.

Innanzitutto, le norme stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio: i sistemi di intelligenza artificiale con un livello inaccettabile per la sicurezza delle persone dovranno essere vietati, comprese le pratiche per il cosiddetto social scoring (ossia la classificazione delle persone sulla base del loro comportamento sociale o alle loro caratteristiche personali). Inoltre, sono vietati anche i sistemi basati sugli algoritmi predittivi del comportamento: si tratta di tutti quei sistemi basati sulla profilazione degli individui, i sistemi di riconoscimento emotivo in contesti giudiziari, lavorativi, educativi o nei controlli alle frontiere: tutte situazioni in cui l’intelligenza artificiale potrebbe rischiare di fuorviare le decisioni.

L’uso della tecnologia a riconoscimento biometrico viene vietato nei luoghi pubblici in senso assoluto se in tempo reale mentre è consentito solo se eseguito ex-post per il perseguimento di reati gravi e con autorizzazione di un giudice.

“Ad altro rischio” sono, invece, stati considerati i sistemi di intelligenza artificiale che possono provocare danni alla salute delle persone, alla sicurezza, ai diritti fondamentali e all’ambiente. Sistemi di intelligenza artificiale altamente rischiosi sono anche quelli utilizzati per influenzare il voto nelle campagne politiche.

Infine, i modelli di base generativi, come ChatGpt, dovranno rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto è stato generato dall’intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare riepiloghi dei dati protetti da copyright utilizzati per la formazione.

Insomma, nelle intenzioni dell’Europa lo sviluppo di questo codice deve essere umanocentrico e bilanciare i diritti dell’uomo con l’inarrestabile progresso tecnologico.

L’IA tra leggi future e applicazioni presenti

«L’intelligenza artificiale consiste in una famiglia di tecnologie in rapida evoluzione che può contribuire al conseguimento di un’ampia gamma di benefici a livello economico e sociale […] può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, istruzione e formazione, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, mitigazione dei cambiamenti climatici e adattamento ad essi».

Digital Transformation Scaled

Con queste parole viene descritta l’intelligenza artificiale all’interno della proposta di regolamento, a conferma dell’intenzione dell’Unione europea di normare quello che ad oggi è il fenomeno più dirompente degli ultimi anni in termini di sviluppo tecnologico.

Pensiamo, ad esempio, a tutte le possibilità offerte alle imprese: miglioramento della produttività, grazie all’automazione delle operazioni; evoluzione del servizio clienti (con la creazione di chatbot che rispondano alle domande più comuni degli utenti e che siano in grado dai assegnare automaticamente la priorità ai ticket); potenziamento della logistica e della supply chain; introduzione di sistemi di manutenzione predittiva in grado di individuare con anticipo le problematiche, migliorare la sicurezza e raggiungere un utilizzo efficiente e sostenibile delle risorse. 

Quanto detto, tuttavia, non deve far dimenticare il motivo principale per il quale l’Unione europea è al lavoro per regolamentare l’IA, vale a dire l’eliminazione delle zone d’ombra circa il suo impiego. Rimanendo a parlare dell’utilizzo a livello di imprese, si pensi alla protezione dei segreti. In Italia il patrimonio informativo aziendale, generato internamente e dotato di un valore economico, riceve tutela a condizione che siano state adottate idonee misure per mantenerne la segretezza. Pertanto, l’inserimento di dati (come può essere un codice sorgente) che costituiscono segreto aziendale nei sistemi di AI determina una perdita di confidenzialità e, quindi, dei relativi rimedi giudiziali. In quest’ottica, una futura normativa in materia dovrà necessariamente stabilire quali categorie di informazioni possano essere processate attraverso tali sistemi, prevedendo presidi a tutela dei dati personali o di altre informazioni confidenziali.

Si auspica, in conclusione, che Governi e istituzioni arrivino il prima possibile a emanare delle leggi che disciplinino efficacemente gli ambiti di sviluppo e applicazione dei sistemi di intelligenza artificiale, dal momento che più tempo passa maggiore sarà la difficoltà nel tenere il passo di questa rivoluzione.