La crescita dell’IA passa dall’etica
Tipi di IA diversi, stessi interrogativi
L’intelligenza artificiale ristretta (ANI o “debole”) è quella rispetto alla quale i problemi di etica risultano meno pressanti. Si tratta, infatti, di quella tipologia di AI orientata agli obiettivi, è progettata per eseguire compiti specifici, simulando il comportamento umano in base a una serie di limiti e vincoli.
- applicazioni molto accurate di riconoscimento vocale (es.: SIRI di Apple, ALEXA di Amazon o i chatbot) o delle immagini (es: auto a guida autonoma o, in medicina, la diagnostica per immagini);
- motori di raccomandazioni che suggeriscono i prodotti in base alla cronologia degli acquisti;
- robot di produzione;
- droni.
L’intelligenza artificiale generale (AGI o “forte”) è quella che, secondo molti, potrebbe destare le maggiori preoccupazioni etiche circa il suo utilizzo. Stiamo parlando dei sistemi più avanzati di IA, in grado di imitare la mente umana a un livello di astrazione tale da poter imitare processi interni di ragionamento. A tali sistemi possono essere affidati compiti estremamente complessi, che implicano ragionamenti strategici oppure la creazione di contenuti artistici.
Proprio queste ultime applicazioni dell’IA sono in grado di generare contenuti sempre meno distinguibili da quelli provenienti dagli esseri umani. È a questa categoria che, in maniera tangibile, il bot avanzato ChatGPT si avvicina sempre di più, soprattutto grazie alla ricerca continua e ai numerosi e rapidi aggiornamenti (GPT-4 e il già avviato lavoro su GPT-5), il cui caso è il più rappresentativo delle potenzialità della IA Generativa.
Come cambia il modo di generare contenuti grazie all’uso dell’IA
Sorge spontaneo chiedersi a chi siano attribuibili i diritti di proprietà e sfruttamento di queste immagini. In questo senso, la giurisprudenza sta elaborando degli orientamenti in grado di dare delle risposte, con l’auspicio che all’evoluzione di queste tecnologie si accompagni anche un’evoluzione normativa in grado di definire questi processi, garantendo i diritti di tutti i soggetti coinvolti. Allo stato attuale, la soluzione preferibile in questo senso rimane consultare le policy sull’utilizzo delle immagini generate, reperibili presso le singole piattaforme.
L’esempio dell’arte riporta l’attenzione sul funzionamento di base dei sistemi di IA. Alle macchine, infatti, devono essere forniti idonei strumenti di apprendimento: si parla di training dataset rispetto a modelli di Machine Learning. Noi esseri umani siamo affetti da bias per motivi culturali, sociali ed è inevitabile che un sistema basato sull’emulazione del comportamento umano ne abbia anch’esso, ma la linea tra quello che è accettabile e quello che è inammissibile è sottile. Un modello addestrato con dati che rispecchiano la nostra società, quindi intrinsecamente soggetto a bias, è realisticamente adatto ad essere utilizzato in determinati contesti?
Tali ragionamenti assumono ancor più rilevanza quando ci si approccia alle applicazioni molto più concrete dei sistemi di intelligenza artificiale, come, ad esempio, per scopi militari. Già oggi l’AI viene utilizzata al fine di supportare l’essere umano nella guida di aerei, droni o altri sistemi di attacco. Non è escluso che, in futuro, l’intelligenza artificiale possa guidare direttamente tali strumenti, con la possibilità, in alcuni casi, di compiere delle scelte in scenari dove è in gioco la vita di esseri umani.
Norme ed etica, un’evoluzione parallela
Da tempo ormai la maggior parte dei Paesi si sta muovendo per cercare dei punti fissi attorno ai quali costruire, se non una legislazione cogente, quantomeno un corpus organico di principi da seguire in materia.
In questa direzione si era mossa l’Unione Europea, quando, nel 2019, elaborò un vero e proprio codice etico sull’impiego dell’intelligenza artificiale. Tali linee guida (Trustworthy Artificial Intelligence) erano state concepite da esperti provenienti da campi tanto diversi da compendiare tutto il sapere necessario per definire efficacemente il fenomeno. Nello specifico, l’intelligenza artificiale, per dirsi rispondente alle prescrizioni dell’etica, deve rimanere responsabilmente al servizio dell’uomo, senza limitarne l’autonomia; garantire solidità tecnica e sicurezza; essere trasparente e rispettosa della normativa privacy; garantire assenza di discriminazione, oltre che benessere sociale e ambientale.
Parallelamente all’etica, le istituzioni europee sono al lavoro anche sul versante strategico. Risale al 2018 l’impegno comune per la creazione di un piano coordinato sull’intelligenza artificiale, tramite il quale incoraggiare le sinergie tra Stati allo scopo di rendere l’UE nel suo complesso competitiva sul tema dell’intelligenza artificiale.
Il piano è stato rivisto nel 2021, riproponendo la necessità di investimenti nelle tecnologie di IA, con lo scopo ulteriore di stimolare una ripresa economica e sociale resiliente anche grazie all’adozione delle più innovative soluzioni digitali.
Sempre al 2021 risale il “Programma Strategico per l’Intelligenza Artificiale 2022-2024”, con il quale l’Italia, tramite ventiquattro politiche da implementare entro tre anni, intende allinearsi agli standard europei in materia, attraverso il potenziamento di competenze, ricerca e creazione di valore.
Netgroup all’Innovation Village 2023, un’occasione per confrontarsi sulle implicazioni etiche dell’uso dell’IA
Un’importante occasione per promuovere la riflessione su questi argomenti sarà l’evento “IA e Modelli Generativi: uso improprio e pregiudizio”, che si terrà mercoledì 10 maggio, dalle ore 12.30 alle ore 14.00, presso la Sala convegni di Villa Doria D’Angri a Napoli, in collaborazione con l’Università Federico II.
L’incontro, che vedrà la partecipazione di Netgroup, fa parte del programma dell’Innovation Village 2023, VIII edizione dell’importante manifestazione dedicata al networking tra imprese, PA, startup, professionisti e associazioni sul tema dell’innovazione.
Tra gli argomenti principali del convegno ci saranno: l’evoluzione del mercato del lavoro in seguito all’implementazione dei sistemi di intelligenza artificiale, le grandi possibilità (e i grandi interrogativi) concernenti l’impiego dell’IA Generativa e le ricadute di questi processi sulla normativa della privacy e della protezione dei dati personali.
La presenza di Netgroup all’evento testimonia la nostra convinzione del fatto che un confronto costruttivo e il più allargato possibile su queste tematiche potrà certamente contribuire a superare le perplessità che abbiamo elencato. Solo così saremo in grado recepire efficacemente le molteplici innovazioni che comporterà l’impiego sempre maggiore delle tecnologie di intelligenza artificiale.
Per saperne di più sull’evento e sulle modalità d’iscrizione, consulta questo link: