Incontro tra l'AI e l'essere umano.

Verso un uso etico dell’IA

Author
Andrea Allegra
Visual Curator
Ana Calderón
Translator
Viviana Grasso

Sono ormai più di sessant’ anni che il genere umano usa gli strumenti dell’intelligenza artificiale: dalle prime macchine istruite a oggi, i progressi sono stati enormi e a volte inaspettati. Ormai l’IA fa parte integrante della vita di tutti, aiutando e condizionando l’esistenza. Da tempo ormai si parla di una possibile perdita di controllo, correndo il rischio di prevaricazione della tecnologia sull’aspetto umano. Un uso etico dell’IA diventa, quindi, fondamentale perché questo non accada. Ma in che modo si può creare un’ intelligenza etica?

Come evitare una minaccia esistenziale?

Sono diversi gli aspetti che gli addetti ai lavori stanno prendendo in considerazione. Secondo la scienziata cinese Fei-Fei Li, una delle figure preminenti nel campo dell’intelligenza artificiale, che si è formata a livello accademico negli Stati Uniti, per evitare problemi futuri è essenziale sviluppare studi incentrati sull’uomo, in cui la tecnologia venga utilizzata per potenziare le capacità umane e migliorare la qualità della vita, piuttosto che sostituire o sminuire il ruolo delle persone.

Lei stessa, infatti, oltre a essere una delle creatrici di ImageNet (enorme database di immagini), è stata co-fondatrice di un’organizzazione no-profit dedicata alla diversità e all’inclusione (l’AI4ALL ) e, presso la Stanford University, ha fondato il Center for Human-Centered AI, che promuove la ricerca e lo sviluppo di un’intelligenza artificiale che rispetti la dignità e i diritti umani. Questo per evitare che l’IA crei diseguaglianze sociali.

Conosciuta anche come la madrina dell'IA, Fei-Fei Li promuove l'uso etico dell'IA con i suoi progetti innovativi.
Conosciuta anche come la madrina dell’IA, Fei-Fei Li promuove l’uso etico dell’IA con i suoi progetti innovativi. Foto: David Paul Morris/Bloomberg

Sam Altman e OpenAI

Sam Altam, Ceo della OpenAI, reso popolarissimo per il rilascio nel novembre del 2022 del suo chatbot più usato al modo: ChatGPT, dal suo canto ritiene che l’umanità sia in grado di dare uno sviluppo all’IA che sia consono alle sue esigenze, evitando sopraffazioni tecnologiche. Anche questa azienda quindi si pone come finalità di non far prevalere la macchina nei confronti dell’uomo: principio etico fondamentale. Alcuni concetti salienti della governance di OpenAI: “La missione di OpenAI è garantire che l’intelligenza artificiale generale (AGI), con cui intendiamo sistemi altamente autonomi che superano gli umani nei lavori economicamente più preziosi, avvantaggi tutta l’umanità. Cercheremo di costruire direttamente un’ AGI sicura e vantaggiosa, ma considereremo la nostra missione compiuta quando il nostro lavoro aiuterà altri a raggiungere questo risultato”.

Sam Altman, cofondatore e CEO di OpenAI durante conferenza.
Sam Altman, cofondatore e CEO di OpenAI durante conferenza. Foto: Chona Kasinger/ Bloomberg via Getty Images / Fox Business

Anthropic e l’uso etico dell’IA

Proprio da un costola di OpenAI nasce Anthropic. Nel dicembre 2022,  due fratelli italo-americani lasciano l’azienda per creare la loro Public Benefit Corporation chiamata appunto Anthropic. L’intento è quello di connetere l’imprenditoria tecnologica USA alla ricerca scientifica etica. E di questo hanno parlato Papa Francesco e Dario Amodei, in un’udienza in Vaticano svoltasi nel marzo del 2023. Inoltre è interessante leggere la voce governance del sito aziendale: “Anthropic è una Public Benefit Corporation, il cui scopo è lo sviluppo e il mantenimento responsabili dell’intelligenza artificiale avanzata, per il beneficio a lungo termine dell’umanità.”

Bilancia che misura uso etico dell'AI e il del ragionamento umano.
Bilancia che misura uso etico dell’AI e il del ragionamento umano. Foto: Tabata Tech

Utile, onesta e innocua

Così dovrebbe essere l’AI: un equilibrio tra innovazione tecnologica atta a promuovere il rispetto dei diritti umani. Utile, onesta e innocua diventano quindi i pilastri che gli sviluppatori dovrebbero seguire per arrivare a un uso etico dell’IA.

A spiegare meglio questo processo è proprio Daniela Amodei durante un podcast di Stanford eCorner: “Costruire sistemi di intelligenza artificiale che in generale siano sicuri e affidabili e soprattutto etici  è un obiettivo elevato per la nostra azienda. Abbiamo desiderato da sempre costruire strumenti, sistemi e prodotti di intelligenza artificiale generativa nell’utilizzo dei quali le persone potessero sentirsi tranquille. Quindi, abbiamo pensato che, per poter mettere sul mercato degli strumenti affidabili, bisognasse fin da subito incorporare questi flussi di sicurezza tecnica dell’addestramento del modello. Allo stesso tempo vedere se non ci fossero cose brutte, negative e che non contenessero elementi con pregiudizi intrinsechi“.

La presidente di Anthropic, Daniela Amodei, durante la conferenza Cerebral Valley AI.
La presidente di Anthropic, Daniela Amodei, durante la conferenza Cerebral Valley AI. Foto: Kitrum

Altro aspetto fondamentale per avere un uso etico dell’IA è confrontarsi in continuazione con l’essere umano. È importantissimo il feedback. Bisogna poi considerare che non si può creare una carta dei diritti che sia uguale in tutto il mondo: bisogna infatti tenere conto che se, ad esempio, certi valori etici e morali vengono considerati equi in Canada o negli Stati Uniti, possono non esserlo in altre parti del mondo. Lo stesso vale per i valori culturali o religiosi. E anche le leggi e la loro applicazione può variare di Paese in Paese.

Di fatto, le aziende che si occupano di IA non dovrebbero essere arbitri di loro stesse, ma confrontarsi in continuazione con diverse realtà. Ad esempio, sono di grande utilità le associazioni no-profit poiché possono darci delle informazioni aggiuntive che magari sfuggono ad aziende diverse; questo proprio per approfondire sotto diversi aspetti anche qual è la situazione globale.

Uso etico dell’IA – Aspetti cruciali

È fondamentale quindi considerare l’IA e il suo impiego come fattori destinati a sconvolgere in toto l’ esistenza degli individui e delle società nei suoi aspetti più cruciali: dalla privacy al lavoro, dall’equità alla medicina. Gli aspetti cruciali di sicurezza dovranno comunque avere una declinazione etica, affinché vengano rispettate le linee essenziali dell’intero genere umano. L’impatto dovrà evitare di avere un effetto negativo sul mondo del lavoro, rendendolo invece sempre più equo, eliminando le diseguaglianze e cercando soprattutto di far sì che sia più accessibile e più fruibile.

In conclusione, tornando a citare la scienziata Fei-Fei Li, lei stessa ci ricorda che questi sono i momenti più salienti. Non dobbiamo farci prendere da chissà quali timori, dando più importanza alla preoccupazione di quello che non dovrà capitare. Piuttosto dovremmo occuparci di quello che dovrà capitare: un uso etico dell’Intelligenza Artificiale. Dobbiamo quindi agire adesso: abbiamo tempo, ma dobbiamo farlo ora. 

Ti potrebbe interessare anche: L’Intelligenza Artificiale per un mondo sostenibile