Intelligenza artificiale: una sfida per l’informazione
Care amiche e cari amici,
dedicare una giornata di studio e di formazione professionale per giornalisti a un tema come l’intelligenza artificiale è un ottimo segnale. Ci troviamo in un campo nel quale le cose si stanno muovendo con grande velocità e voi, che date forma e sostanza all’informazione, avete il diritto e il dovere di conoscere tutti gli aspetti che riguardano questo tema, per poterli condividere con la società e rendere partecipe il pubblico del cambiamento radicale che sta accadendo attorno a noi.
Tre anni fa, nel discorso ai partecipanti all’assemblea plenaria della Pontificia Accademia per la Vita, il Papa Francesco ci disse: “la galassia digitale, e in particolare la cosiddetta intelligenza artificiale, si trova proprio al cuore del cambiamento d’epoca che stiamo attraversando”. Le sue parole, all’epoca, erano dedicate a salutare la prima sottoscrizione della Rome Call for AI Ethics, una iniziativa della Pontificia Accademia – di cui a breve vi parlerò – e servivano per dare un primo contorno a una situazione assai complessa.
Permettetemi di iniziare questa mia breve comunicazione con due ricordi personali, legati alla vita della Pontificia Accademia per la Vita. In una riflessione con feci con un amico, anziano magistrato e politico della sinistra italiano, affrontammo il tema delle nuove tecnologie e il loro rapporto con la vita umana. Mi consigliò di visitare l’Istituto di Ricerca Scientifica di Genova. Fui sbalordito nel visitare l’Istituto e i diversi ambiti di ricerca, compresi quelli relativi alla medina, alla robotica, e così oltre. Era guidato dal dott. Roberto Cingolani. Tornato a Roma, decisi che un ingegnere robotico dioveve afr parte dei membri dell’Accademia. E scelsi proprio Cingolani. Al momento della decisione, due cardinali, vedendo il titolo di “ingegnere robotico”, mi dissero: “Ma cosa c’entra la robotica con la vita? Il Papa lo nominò. E organizzammo una prima Assemblea Generale sulla robotica (vi porto un volume degli Atti), ove invitai un famoso scienziato giapponese, Hishiguro, che si era costruito un clone-robot che a volte mandava in sua vece a qualche convegno. Ciò che stupì i partecipanti al Convegno fu la sua affermazione: “Noi siamo l’ultima generazione organica. La prossima sarà al litio”. Tale affermazione, per noi inimmaginabile, per la filosofia scintoista – che vede l’anima anche nella materia e nelle cose – è comprensibile. Ma, ci chiediamo: dov’è l’umano?
Il secondo ricordo segue il Congresso. Alcuni mesi dopo ricevo la telefonata del nuovo presidente di Microsoft, Bred Smith, il quale mi chiede se ho una mezz’ora per riceverlo. Aveva avuto gli echi del Congresso. Quando ci vediamo, in sintesi, mi dice: “Nel centro Microsoft di Seattle, siamo cinquantamila ingegneri. E solo ingegneri. Per restare sul mercato siamo costretti ogni settimana a produrre nuove realizzazioni. Possiamo creare artefatti straordinari per lo sviluppo umano, ma anche terribili interventi distruttivi. Tra noi non c’è un moralista, un bioeticista, un filosofo, un teologo. Ecco, lei è disposto ad accompagnarci nel nostro quotidiano per metterci sull’avviso del “limite” insuperabile dell’umano? Non voglio un convegno una volta tanto, ma un accompagnamento continuativo”. E’ di qui che è nata la Rome call for IA ethics di cui vi parlerò tra poco.
Vengo al tema sulla intelligenza artificiale. L’Unione Europea definisce l’intelligenza artificiale (AI) come l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. L’AI permette quindi ad un manufatto tecnologico di comprendere il proprio ambiente, di mettersi in relazione con ciò che percepisce e di risolvere problemi, e soprattutto di agire verso un obiettivo specifico. Il meccanismo sembra semplice e consiste nell’immettere nel computer i dati (già predisposti oppure raccolti tramite sensori specifici, come una videocamera). Il computer li processa e fornisce una risposta. Il fulcro del dibattito che investe l’intelligenza artificiale – ossia ciò che rende questa specifica tecnologia unica ed enormemente potente – è la sua capacità di agire da sola: l’AI adatta il proprio comportamento a seconda della situazione, analizza gli effetti delle proprie azioni precedenti e lavora in autonomia. I progressi nella potenza dei computer, la disponibilità di enormi quantità di dati e lo sviluppo di nuovi algoritmi, hanno portato l’intelligenza artificiale, negli ultimi anni, a compiere balzi in avanti di dimensioni epocali.
Ma attenzione. I rischi sono molti e di diversa natura. Vorrei anzitutto fare una osservazione preliminare che riguarda la stessa dizione “intelligenza artificiale”: è certamente di effetto, ma rischia di essere fuorviante se non si tiene conto del valore dei due termini. Essi infatti, messi l’uno di seguito all’altro, nascondono il fatto che – a dispetto dell’utile assolvimento di compiti servili (è il significato originario del termine “robot”) –, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell’agire. Dobbiamo comprendere meglio che cosa significano, in questo contesto, l’intelligenza, la coscienza, l’emotività, l’intenzionalità affettiva e l’autonomia dell’agire morale. I dispositivi artificiali che simulano capacità umane, in realtà, sono privi di qualità umana.
Una seconda osservazione riguarda la pervasività dell’influenza della Intelligenza artificiale, di cui pochi sono totalmente consapevoli. Viene infatti utilizzata giornalmente nella pubblicità e nello shopping in rete, per fornire suggerimenti basati, ad esempio, su acquisti precedenti, su ricerche e su altri comportamenti registrati online; nella traduzione automatica; nello sviluppo di veicoli a guida autonoma; nella cybersicurezza, per riconoscere tendenze nel continuo flusso di dati; nell’individuazione di fake news e disinformazione, per individuare parole o espressioni sospette; e ancora nei trasporti, nelle fabbriche, nella filiera agricola e alimentare, nell’amministrazione pubblica e nei servizi.
In tale orizzonte è bene leggere il volume di Susanna Zuboff, Il capitalismo della sorveglianza, nel quale l’autrice mostra il potere enorme sulle nostre vite di coloro che detengono i dati raccolti ed elaborati attraverso l’intelligenza artificiale sulla vita di ciascuno di noi. “Il capitalismo della sorveglianza opera sfruttando un’asimmetria senza precedenti della conoscenza e del suo potere. I capitalisti della sorveglianza sanno tutto di noi, mentre per noi è impossibile sapere quello che fanno. Accumulano un’infinità di dati e di conoscenze da noi, ma non per noi. Predicono il nostro futuro perché qualcun altro ci guadagni, ma non noi. Finché il capitalismo della sorveglianza e il suo mercato dei comportamenti futuri potranno prosperare, la proprietà dei nuovi mezzi di modifica dei comportamenti eclisserà i mezzi di produzione come fonte della ricchezza e del potere nel XXI secolo”(p.21). Come il capitalismo industriale era spinto dalla continua crescita dei mezzi di produzione, così il capitalismo della sorveglianza e i suoi operatori di mercato sono costretti ad accrescere continuamente i mezzi per la modifica dei comportamenti e il potere strumentalizzante. Non vado oltre, ma già questi brevi cenni indicano la delicatezza del tema.
Gli utilizzi che ho appena menzionati sono già reali e attivi in molte parti del pianeta. Esistono poi abilità di frontiera che attirano l’interesse dei giornali: penso alla creazione di opere d’arte, alla vittoria del computer sull’uomo nel gioco degli scacchi, alla scrittura di una sceneggiatura teatrale. Questi sono esempi realmente accaduti – e nell’ultimo periodo molti di voi hanno parlato del protagonista più recente delle luci della ribalta, ovvero di quella forma avanzatissima di intelligenza artificiale che rientra nella galassia di Open AI.
Ecco, io credo che sia necessario accogliere tutto ciò con la dovuta criticità, per evitare i due eccessi o di condanna o di esaltazione. Ad esempio, parlando di questi nuovi dispositivi impieghiamo, senza rendercene tanto conto, termini che normalmente vengono riferiti a esseri umani: si parla di robot che hanno esperienze percettive o cognitive, intelligenze collettive condivise nel cloud, capacità di prendere decisioni. In realtà la questione dirimente è che questi dispositivi non hanno il corpo. Sono macchine che possono elaborare flussi astratti di dati. Ma solo macchine. Il fatto che noi percepiamo comportamenti o effetti di processi dotati di automazione, ci induce a trascurare che le macchine vi giungono attraverso processi molto diversi. Essi sono una imitazione delle apparenze. Quando, nel 2011, la Apple ha immesso sul mercato Siri, lo ha presentato come un «assistente intelligente che ti aiuta a fare le cose semplicemente chiedendo»: ci abbiamo creduto, senza sapere come funziona, semplicemente perché funziona e risponde al nostro comando «Ehi Siri». La creazione delle chat-bot, che oltre a eseguire molteplici funzioni, sono in grado di stabilire una sorta di conversazione personalizzata, con il singolo utente, ha accelerato il convincimento che si sia di fronte realmente a una qualche forma di intelligenza.
Le nuove tecnologie, infatti, sviluppano in modo esponenziale le dimensioni simulative delle attività umane, dandoci l’idea di ottenere un servizio personalizzato, sebbene siano macchine collettive che “apprendono” ed elaborano miliardi di dati attraverso un’analisi statistica in grado di generare, sotto la supervisione dei tecnici, mappe linguistiche sempre più sofisticate. Il linguaggio antropomorfo con cui siamo abituati a descrivere questi processi logico-formali, a struttura statistica, rischia di farci dimenticare che, in realtà, domandare, ascoltare, capire, rispondere, obbedire, sono esperienze molto complesse che poco hanno a che fare con le operazioni attuate dalle nuove tecnologie. In realtà, le macchine non ci parlano, non ci ascoltano, non ci rispondono, semplicemente perché non sanno nemmeno che esistiamo e non capiscono che cosa ci stanno dicendo. A nessuno di noi verrebbe in mente di affermare che il semaforo rosso ci dice di fermarci o che il suono della sveglia ci dice che è ora di alzarci. Ma la simulazione della voce umana, la rimodulazione di segnali sonori che noi comprendiamo alla stregua di un dialogo, ha trasformato in modo radicale il nostro rapporto con i nuovi artefatti tecnologici e ha dilatato l’aspetto fiduciario nei confronti dei dati e dei risultati che ci forniscono.
Le macchine, per semplificare al massimo, mettono insieme una sequenza di segni alfabetici che per noi sono però “parole” dense di significato e infatti siamo in grado di valutare se le risposte sono vere o false: per i sistemi tecnologici, questi termini sono però insensati, perché il loro risultato è semplicemente esatto rispetto alla coerenza formale con cui sono stati elaborati i dati acquisiti. Per questo le macchine non mentono e non sbagliano, perché non sanno e non scelgono: eseguono i diversi percorsi resi possibili dai loro programmatori. Ma per esse vale sempre l’antico adagio: se ai software si forniscono dati spazzatura, si ottengono risultati spazzatura. Pensare di accedere alla verità attraverso processi logico-formali è, non dimentichiamolo, il grande sogno di una parte della filosofia, che affonda le radici nella costruzione dei modelli sillogistici. Ma tradurre il linguaggio in segni univoci, formule, numeri da assemblare, per quanto utilissimo in molti contesti del sapere, ci priva della comprensione delle sfumature della realtà e della nostra esperienza, che sono il fondamento delle domande di senso dell’esistere.
Lascio ad altri il compito di descrivere quello scenario, e passo a raccontarvi cosa abbiamo pensato e fatto noi della PAV. Ci siamo chiesti: lo sviluppo sfrenato della tecnologia può permettersi di perdere di vista la dimensione umana? È possibile, in nome del mero tornaconto, dimenticare la dignità umana? E ci siamo risposti: no, questo non deve accadere. È questa la ragione per cui la Pontificia Accademia per la Vita, nel 2020, ha organizzato il convegno “RenAIssance. Per un’Intelligenza Artificiale umanistica”, e ha promosso congiuntamente, il 28 febbraio dello stesso anno, a Roma, la firma di un appello di responsabilità.
Questo appello prende il nome di Rome Call for AI Ethics, ed è stato sottoscritto in prima battuta da me, come presidente della Pontificia Accademia; da Brad Smith, presidente di Microsoft; da John Kelly III, vicedirettore esecutivo di IBM; da Qu Dongyu, direttore generale della Fao; e dall’allora Ministro per l’innovazione tecnologica e la digitalizzazione Paola Pisano per il governo italiano. Abbiamo all’epoca potuto contare anche sulla presenza e il plauso dell’allora presidente del Parlamento Europeo, David Sassoli.
L’idea alla base della Rome Call nasce dalla consapevolezza che le nuove tecnologie, per quanto potenti, non possono essere considerate solo strumenti per svolgere alcune funzioni in modo più rapido ed efficiente. Per orientare le sfide dell’AI verso il rispetto della dignità di ogni essere umano, la Rome Call propone un’algoretica, ossia un’etica degli algoritmi, capace di agire non come strumento di contenimento bensì come indirizzo e guida. Dice il Papa a proposito dell’algoretica: essa “intende assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nostra era. Nella comune ricerca di questi obiettivi, i principi della Dottrina Sociale della Chiesa offrono un contributo decisivo: dignità della persona, giustizia, sussidiarietà e solidarietà. Essi esprimono l’impegno di mettersi al servizio di ogni persona nella sua integralità e di tutte le persone, senza discriminazioni né esclusioni. Ma la complessità del mondo tecnologico ci chiede una elaborazione etica più articolata, per rendere questo impegno realmente incisivo”.
Destinatari sono la società tutta, le organizzazioni, i governi, le istituzioni, le tech companies internazionali: ognuno è necessario per condividere un senso di responsabilità che garantisca all’umanità tutta un futuro nel quale l’innovazione digitale e il progresso tecnologico mettono al centro l’essere umano.
Puntando a una nuova algoretica e condividendone i valori, i firmatari si impegnano a richiedere lo sviluppo di un’intelligenza artificiale che non abbia come mero scopo la realizzazione di maggiori profitti o la graduale sostituzione dell’uomo in ambito lavorativo; chi firma si impegna altresì a seguire sei principi fondamentali. Il primo è la Trasparenza: in linea di principio i sistemi di intelligenza artificiale devono essere comprensibili; Inclusione: devono essere prese in considerazione le esigenze di tutti gli esseri umani in modo che tutti possano beneficiare e che a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi; Responsabilità: coloro che progettano e implementano soluzioni di intelligenza artificiale devono procedere con responsabilità e trasparenza; Imparzialità: non creare o agire secondo il pregiudizio, salvaguardando così l’equità e la dignità umana; Affidabilità: i sistemi di Intelligenza Artificiale devono essere in grado di funzionare in modo affidabile; Sicurezza e privacy: i sistemi di Intelligenza Artificiale devono funzionare in modo sicuro e rispettare la privacy degli utenti.
La prima firma della Rome Call, nel 2020, è stata un atto storico, ma anche un inizio. All’appello hanno partecipato partner istituzionali, come portatori di valore; tecnologici, che realizzano soluzioni; e politici, che regolano i limiti di utilizzo e di gestione del mondo digitale. Su questo ordito ha preso forma la trama della Call. Aver condiviso aspirazioni di dignità della persona, giustizia, sussidiarietà e solidarietà con partner capaci di fare la differenza è un fondamentale primo passo.
La Rome Call, però, non è solamente un momento simbolico di incontro e sottoscrizione; è anzitutto un movimento culturale che vuole produrre un cambiamento, e l’ha dimostrato nel periodo pandemico, nonostante le innumerevoli difficoltà causate dal distanziamento forzato e dalla impossibilità di incontri fisici tra realtà diverse.
Nonostante le difficoltà imposte dalla pandemia siamo riusciti a realizzare, lo scorso mese, un evento al quale ci siamo dedicati per quasi due anni – tanta è stata la sua complessità: la firma interreligiosa della Rome Call. Per dire al mondo che la dignità dell’uomo va salvaguardata e protetta sempre, in ogni circostanza, ci siamo uniti ai nostri fratelli ebrei e musulmani. Così il 10 di gennaio di quest’anno, davanti al Papa, ci siamo presentati assieme ai rappresentanti del Forum per la Pace di Abu Dhabi (Emirati Arabi) e della Commissione per il dialogo interreligioso del Gran Rabbinato di Israele. Nello stesso giorno, dopo che i primi firmatari della Rome Call avevano confermato il proprio impegno per l’ideazione e la realizzazione di un’intelligenza artificiale che ne segua i principi, abbiamo riunito relatori di spicco che hanno analizzato l’argomento sia in prospettiva religiosa che secolare.
Perché tutto questo? Qual è il contributo delle religioni a questo tipo di dibattito? Le religioni hanno svolto e continueranno a svolgere un ruolo cruciale nel plasmare un mondo in cui l’essere umano è al centro del concetto di sviluppo. Per questa ragione, uno sviluppo etico dell’intelligenza artificiale deve essere affrontato anche da una prospettiva interreligiosa. Nel nostro evento di gennaio, le tre religioni abramitiche si sono unite per fornire una guida per la ricerca di senso dell’umanità in questa nuova era.
Il nostro lavoro non è finito. Ora stiamo lavorando per coinvolgere in questo movimento anche le religioni orientali: nel 2024 saremo in Giappone per ribadire, unendo la nostra voce a quella dei nostri fratelli di altre tradizioni religiose, che le conquiste tecnologiche possono essere utilizzate a beneficio di tutti, e possono promuovere la dignità umana, l’equità e la giustizia. Strumenti come i social media o le loro future versioni possono essere utilizzati per promuovere valori condivisi come la fratellanza umana, anziché la divisione e la sfiducia.
Per fare questo però la società umana deve adottare un’algoretica, ossia lo sviluppo etico degli algoritmi, progettato, discusso e concordato da tutte le persone di buona volontà. Questo nostro movimento potrà avere successo anche grazie al vostro aiuto. Se anche voi, come spero, credete nella possibilità di rendere il mondo più giusto, per tutti, parlare di queste tematiche e della nostra iniziativa che vuole difendere la dignità di ogni essere umano è un modo per contribuire alla causa.
Grazie del vostro ascolto, e buon lavoro.
Università Santa Croce, 15 marzo 2023