Select Page

La crescita dell’IA passa dall’etica

  19 aprile 2023
Una macchina guidata da algoritmi può comportarsi in modo etico? La risposta a tale domanda è tutt’altro che semplice. Quello dell’intelligenza artificiale, infatti, è un argomento che ad oggi fa sorgere molti interrogativi legati all’etica. D’altronde, si tratta di una delle innovazioni più grandi – se non, addirittura, la più grande – degli ultimi decenni.

Tipi di IA diversi, stessi interrogativi

Ai 6
Facendo un passo indietro, è utile ricordare che per intelligenza artificiale si intende l’insieme delle tecnologie in grado di trasmettere alle macchine processi di elaborazione delle informazioni, decisionali e di comprensione del linguaggio simili a quelli umani. All’interno di quest’ampia categoria, è opportuno distinguere immediatamente l‘intelligenza artificiale cosiddetta “forte” dalla “debole”.

L’intelligenza artificiale ristretta (ANI o “debole”) è quella rispetto alla quale i problemi di etica risultano meno pressanti. Si tratta, infatti, di quella tipologia di AI orientata agli obiettivi, è progettata per eseguire compiti specifici, simulando il comportamento umano in base a una serie di limiti e vincoli.

Essa non imita l’intelligenza umana ma porta a termine determinate azioni per le quali è addestrata, rendendo possibile la realizzazione di:
  1. applicazioni molto accurate di riconoscimento vocale (es.: SIRI di Apple, ALEXA di Amazon o i chatbot) o delle immagini (es: auto a guida autonoma o, in medicina, la diagnostica per immagini);
  2. motori di raccomandazioni che suggeriscono i prodotti in base alla cronologia degli acquisti;
  3. robot di produzione;
  4. droni.

L’intelligenza artificiale generale (AGI o “forte”) è quella che, secondo molti, potrebbe destare le maggiori preoccupazioni etiche circa il suo utilizzo. Stiamo parlando dei sistemi più avanzati di IA, in grado di imitare la mente umana a un livello di astrazione tale da poter imitare processi interni di ragionamento. A tali sistemi possono essere affidati compiti estremamente complessi, che implicano ragionamenti strategici oppure la creazione di contenuti artistici.

Proprio queste ultime applicazioni dell’IA sono in grado di generare contenuti sempre meno distinguibili da quelli provenienti dagli esseri umani. È a questa categoria che, in maniera tangibile, il bot avanzato ChatGPT si avvicina sempre di più, soprattutto grazie alla ricerca continua e ai numerosi e rapidi aggiornamenti (GPT-4 e il già avviato lavoro su GPT-5), il cui caso è il più rappresentativo delle potenzialità della IA Generativa.

Come cambia il modo di generare contenuti grazie all’uso dell’IA

Un argomento sul quale è aperto il dibattito è certamente quello dell’attribuzione dei diritti d’autore ad algoritmi di intelligenza artificiale come Dall-e 2, Stable Diffusion e Midjourney. Le immagini che essi sono in grado di creare, sulla base di descrizioni testuali fornite dall’utente, sono sorprendenti e gli usi che già se ne fanno sono dei più vari. Alcune sono considerate vere e proprie opere d’arte, commercializzate e vendute all’asta.
Sorge spontaneo chiedersi a chi siano attribuibili i diritti di proprietà e sfruttamento di queste immagini. In questo senso, la giurisprudenza sta elaborando degli orientamenti in grado di dare delle risposte, con l’auspicio che all’evoluzione di queste tecnologie si accompagni anche un’evoluzione normativa in grado di definire questi processi, garantendo i diritti di tutti i soggetti coinvolti. Allo stato attuale, la soluzione preferibile in questo senso rimane consultare le policy sull’utilizzo delle immagini generate, reperibili presso le singole piattaforme.
L’esempio dell’arte riporta l’attenzione sul funzionamento di base dei sistemi di IA. Alle macchine, infatti, devono essere forniti idonei strumenti di apprendimento: si parla di training dataset rispetto a modelli di Machine Learning. Noi esseri umani siamo affetti da bias per motivi culturali, sociali ed è inevitabile che un sistema basato sull’emulazione del comportamento umano ne abbia anch’esso, ma la linea tra quello che è accettabile e quello che è inammissibile è sottile. Un modello addestrato con dati che rispecchiano la nostra società, quindi intrinsecamente soggetto a bias, è realisticamente adatto ad essere utilizzato in determinati contesti?

Tali ragionamenti assumono ancor più rilevanza quando ci si approccia alle applicazioni molto più concrete dei sistemi di intelligenza artificiale, come, ad esempio, per scopi militari. Già oggi l’AI viene utilizzata al fine di supportare l’essere umano nella guida di aerei, droni o altri sistemi di attacco. Non è escluso che, in futuro, l’intelligenza artificiale possa guidare direttamente tali strumenti, con la possibilità, in alcuni casi, di compiere delle scelte in scenari dove è in gioco la vita di esseri umani.

Norme ed etica, un’evoluzione parallela

Quanto detto finora evidenzia che l’obiettivo principale dietro l’implementazione delle tecnologie di intelligenza artificiale è l’ottimizzazione di determinati processi per ridurne i costi, migliorando le prestazioni in un’ottica di scalabilità del business.

Da tempo ormai la maggior parte dei Paesi si sta muovendo per cercare dei punti fissi attorno ai quali costruire, se non una legislazione cogente, quantomeno un corpus organico di principi da seguire in materia.

In questa direzione si era mossa l’Unione Europea, quando, nel 2019, elaborò un vero e proprio codice etico sull’impiego dell’intelligenza artificiale. Tali linee guida (Trustworthy Artificial Intelligence) erano state concepite da esperti provenienti da campi tanto diversi da compendiare tutto il sapere necessario per definire efficacemente il fenomeno. Nello specifico, l’intelligenza artificiale, per dirsi rispondente alle prescrizioni dell’etica, deve rimanere responsabilmente al servizio dell’uomo, senza limitarne l’autonomia; garantire solidità tecnica e sicurezza; essere trasparente e rispettosa della normativa privacy; garantire assenza di discriminazione, oltre che benessere sociale e ambientale.

Intelligenza Artificiale M
Un’importante svolta è arrivata nel 2021, con l’elaborazione da parte della Commissione Europea di una proposta di legge che prende il nome di The Artificial Intelligence Act. Nel testo l’utilizzo delle intelligenze artificiali viene classificato secondo tre livelli di rischio: applicazioni che generano rischi inaccettabili, applicazioni ad alto rischio, altre applicazioni non esplicitamente regolamentate.

Parallelamente all’etica, le istituzioni europee sono al lavoro anche sul versante strategico. Risale al 2018 l’impegno comune per la creazione di un piano coordinato sull’intelligenza artificiale, tramite il quale incoraggiare le sinergie tra Stati allo scopo di rendere l’UE nel suo complesso competitiva sul tema dell’intelligenza artificiale.

Il piano è stato rivisto nel 2021, riproponendo la necessità di investimenti nelle tecnologie di IA, con lo scopo ulteriore di stimolare una ripresa economica e sociale resiliente anche grazie all’adozione delle più innovative soluzioni digitali.

Sempre al 2021 risale il “Programma Strategico per l’Intelligenza Artificiale 2022-2024”, con il quale l’Italia, tramite ventiquattro politiche da implementare entro tre anni, intende allinearsi agli standard europei in materia, attraverso il potenziamento di competenze, ricerca e creazione di valore.

Netgroup all’Innovation Village 2023, un’occasione per confrontarsi sulle implicazioni etiche dell’uso dell’IA

Quanto detto finora dimostra che l’attenzione sul tema dei possibili rischi connessi all’impiego dell’intelligenza artificiale è molto alta. Tali preoccupazioni, tuttavia, non devono rappresentare un ostacolo alla ricerca ma semplicemente uno stimolo a mantenere salda la supervisione umana su questi processi, in modo tale da monitorarne gli sviluppi di pari passo con i principi dell’etica.

Un’importante occasione per promuovere la riflessione su questi argomenti sarà l’evento “IA e Modelli Generativi: uso improprio e pregiudizio”, che si terrà mercoledì 10 maggio, dalle ore 12.30 alle ore 14.00, presso la Sala convegni di Villa Doria D’Angri a Napoli, in collaborazione con l’Università Federico II.

L’incontro, che vedrà la partecipazione di Netgroup, fa parte del programma dell’Innovation Village 2023, VIII edizione dell’importante manifestazione dedicata al networking tra imprese, PA, startup, professionisti e associazioni sul tema dell’innovazione.

Tra gli argomenti principali del convegno ci saranno: l’evoluzione del mercato del lavoro in seguito all’implementazione dei sistemi di intelligenza artificiale, le grandi possibilità (e i grandi interrogativi) concernenti l’impiego dell’IA Generativa e le ricadute di questi processi sulla normativa della privacy e della protezione dei dati personali.

La presenza di Netgroup all’evento testimonia la nostra convinzione del fatto che un confronto costruttivo e il più allargato possibile su queste tematiche potrà certamente contribuire a superare le perplessità che abbiamo elencato. Solo così saremo in grado recepire efficacemente le molteplici innovazioni che comporterà l’impiego sempre maggiore delle tecnologie di intelligenza artificiale.

Per saperne di più sull’evento e sulle modalità d’iscrizione, consulta questo link: