Ho sempre evitato di scrivere qualcosa sull’Intelligenza Artificiale perché ritengo se ne stia facendo una pubblicità spropositata rispetto a quello che realmente rappresenta come contributo al nostro lavoro e non volevo ampliarne un’immagine errata.
Infatti ho trovato molto indovinato il commento del Premio Nobel Giorgio Parisi, fatto in una lectio magistralis sulla Intelligenza Artificiale, che affermava la necessità che gli Stati avessero voce in capitolo “per valutare le conseguenze sociali dell’IA e non dessero spazio a un capitalismo selvaggio”, per esempio sul fronte della perdita di posti di lavoro. Sempre gli Stati – aggiunse – devono avere “tecnici che si impegnino a comprendere i meccanismi che la governano, anche se l’IA è quasi tutta in mano ai privati (che pure usano la ricerca di base fatta con finanziamenti pubblici)”.
Era la dimostrazione che l’IA, così com’era allora, rischiava solo di far diminuire l’occupazione.
Poi nel 2020 sono iniziati gli investimenti in America per la realizzazione dell’IA Generativa che si è realizzata nell’arco di un paio d’anni ed è arrivata in Italia nel 2023. Per quello che realmente apporta come supporto agli utenti mi è sembrato giunto il momento di studiarla un po’ per poterci scrivere qualcosa in proposito. Infatti essa è in grado di generare testi, immagini, video, musica o altri media in risposta a delle richieste dette prompt.
I sistemi di intelligenza artificiale generativa utilizzano modelli generativi, che sono modelli statistici di una distribuzione congiunta di una variabile osservabile e di una variabile dipendente, che nel contesto del data mining è detta variabile target. Quindi ecco il risultato della mia piccola indagine. In proposito riporterò anche cosa hanno scritto alcuni personaggi autorevoli, sia prima che dopo l’immissione sul mercato dell’IA Generativa.
Eccone alcuni.
Per Marco Brigaglia, Università degli Studi di Palermo Uno degli aspetti più affascinanti dell’intelligenza artificiale è il suo impatto sulla rappresentazione che abbiamo di noi stessi, della nostra mente e del nostro posto nel mondo. La comprensione delle nostre abilità cognitive ‘naturali’ è indissolubilmente intrecciata, in un rapporto di reciproco rinforzo, con la capacità di costruire meccanismi artificiali in grado di simularle, replicarle, e a volte potenziarle. Quanto più grande si fa la capacità di macchine artificiali di emulare funzioni cognitive umane di alto livello, e quanto più profonda si fa la comprensione dei loro meccanismi naturali, tanto più irresistibile diventa l’immagine ‘meccanistica’ della persona umana, come risultante dall’interazione stratificata di una molteplicità di meccanismi sub-personali. Una ‘macchina’ biologica’.
Con l’IA Generativa forse si è aperto un problema etico? L’uomo si trova di fronte a un’altra specie di ‘sapiens’, questa volta una macchina, che ci pone la domanda fondamentale sulla nostra specificità. Prima eravamo gli unici ‘sapiens’ sulla Terra, ora che abbiamo una macchina considerata da alcuni sapiens, chi siamo noi? Io non sono assolutamente d’accordo, considero la macchina tutt’altro che sapiens ma solo macchina che fa solo quello che noi gli ordiniamo di fare con programmi o algoritmi. Infatti la macchina no-sapiens risponde allo stesso tipo di sollecitazione sempre allo stesso modo, mentre l’uomo-sapiens risponde ad uno stesso tipo di sollecitazione in modo diverso a seconda di chi viene interpellato.
Comunque proseguiamo, Il filosofo Ludwig Wittgenstein diceva: “I confini del mio mondo sono i confini del mio linguaggio”, delle mie parole. Per la prima volta ci siamo trovati di fronte al fatto di dover utilizzare un termine, “intelligenza”, che applicavamo principalmente agli umani, e con qualche riduzione ad alcuni animali, per descrivere una macchina che abbiamo costruito. Ci mancano le parole – e questo è parte del problema – per descrivere la differenza tra qualcosa che funziona, la macchina, e qualcuno che esiste.
Padre Paolo Benanti Presidente della Commissione sull’Intelligenza Artificiale per l’Informazione
Infatti, fra i player coinvolti nello sviluppo dell’intelligenza artificiale c’è, a sorpresa, anche il Vaticano. Già nel 2020, in netto anticipo rispetto al boom degli strumenti di AI generativa come ChatGPT, il Vaticano, tramite l’ente Pontificia accademia per la vita, ha siglato la lettera d’intenti Rome Call for AI Ethics, insieme a Microsoft, Ibm, Fao e il Dipartimento italiano dell’innovazione tecnologica, per indicare le regole etiche da seguire nello sviluppo dell’intelligenza artificiale. Prima di algoritmi, modelli di apprendimento automatico e super computer, la Santa Sede mira a porre le basi per un futuro tecnologico che rispetti la dignità umana. Nel mezzo della rivoluzione tecnologica, il Vaticano si impegna a promuovere – in collaborazione con le altre religioni abramitiche – un utilizzo dell’intelligenza artificiale che rifletta valori umani fondamentali.
Etica di frontiera. Ecco come Padre Paolo Benanti affronta il problema di diventare prigionieri del software anche con l’uso dell’Intelligenza Artificiale:
“Uno degli effetti della digitalizzazione e della trasformazione degli oggetti in oggetti computazionali è la nascita di quella che potremmo definire una software defined reality(Sdr) o realtà definita dal software. Questa è un’espressione che identifica la tendenza del contemporaneo a realizzare oggetti che affidano al software il controllo, la gestione e la manipolazione della realtà fisica. Questa trasformazione può includere l’uso di tecnologie informatiche tradizionali o anche ricorrere a realtà aumentata, realtà virtuale e Internet delle cose per creare esperienze immersive e interattive. In questo modo, di fatto dall’introduzione della Sdr il software diventa uno strumento per definire e plasmare la realtà.
Negli ultimi anni il dibattito, politico e industriale, si è concentrato su dati ed informazioni: elementi chiave nell’innovazione contemporanea. Tuttavia, questo ha lasciato in ombra un altro e non meno fondamentale elemento: il software, e non l’informazione o i dati, è sempre di più ciò definisce e dà forma alla realtà”
Infine, prima di chiudere l’articolo, mi piace notare che in questo contesto anche l’Europa ha assunto un ruolo per la tutela della persona. L’AI Act Europeo, promettendo di regolare e armonizzare l’uso dell’Intelligenza Artificiale, sta dimostrando di voler proteggere i suoi cittadini-persone. Padre Paolo Benanti, infatti, ha descritto questo atto normativo come una “cintura di sicurezza per l’Europa” e “un dispositivo di un’Europa che mette al centro la persona”. Il suo obiettivo è quello di garantire un equilibrio tra l’innovazione tecnologica e la protezione dei diritti fondamentali dei cittadini e delle persone europee. Si tratta di un approccio che riconosce che la tecnologia dovrebbe servire gli interessi umani, non dominarli.
Etica. Bisogna fare una distinzione tra un “essere umano che esiste” e una “macchina che funziona”, e il tema è sempre più rilevante alla luce del nostro uso quotidiano delle macchine. Anche Papa Francesco nel suo intervento al G7 del 14 giugno ha parlato dell’Intelligenza Artificiare collegandola ad una dimensione etica con queste parole: “Il vigoroso avanzamento tecnologico rende l’intelligenza artificiale uno strumento affascinante e tremendo al tempo stesso ed impone una riflessione all’altezza della situazione“, ha esordito. “Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica”. “Non possiamo nascondere il rischio concreto, poiché insito nel suo meccanismo fondamentale, che l’intelligenza artificiale limiti la visione del mondo a realtà esprimibili in numeri e racchiuse in categorie preconfezionate, estromettendo l’apporto di altre forme di verità e imponendo modelli antropologici, socio-economici e culturali uniformi”, ha avvertito. “Il paradigma tecnologico incarnato dall’intelligenza artificiale rischia allora di fare spazio a un paradigma ben più pericoloso”.
Voglio chiudere definitivamente con il pensiero laico sull’IA del mio amico Umberto Rapetto grande esperto informatico: “siccome questa ultima realizzazione della tecnologia vive e supporta gli utenti alimentandosi di informazioni il pericolo che s’incorre è quello che si alimenti con cibo avvelenato”. Quindi attenzione a farlo alimentare con qualsiasi tipo di cibo.