G7, il faro di Papa Francesco sull’intelligenza artificiale
14 Giugno 2024
L’Ia, ha detto il Pontefice, è spesso percepita come ambivalente: entusiasma per le possibilità che offre ma genera timore per le possibili conseguenze. Un rischio che occorre evitare
L’intelligenza artificiale offre varie opportunità, ma anche molti rischi. Che occorre assolutamente evitare. Lo ha evidenziato Papa Francesco nel suo intervento odierno al G7 in corso a Fasano, in provincia di Brindisi, dal 13 al 15 giugno. Un intervento che ripropone un tema già affrontato più volte dal Pontefice.
“La Sacra Scrittura” ha sottolineato il Santo Padre, attesta che Dio ha donato agli uomini il suo Spirito affinché abbiano “saggezza, intelligenza e scienza in ogni genere di lavoro” (la citazione è dal Libro dell’Esodo, 35,31, ndr). La scienza e la tecnologia sono dunque prodotti straordinari del potenziale creativo di noi esseri umani. Ebbene, è proprio dall’utilizzo di questo potenziale creativo che Dio ci ha donato che viene alla luce l’intelligenza artificiale”.
Ambivalenza
“Il tema dell’intelligenza artificiale è, tuttavia, spesso percepito come ambivalente”, spiega però il Papa: “da un lato, entusiasma per le possibilità che offre, dall’altro genera timore per le conseguenze che lascia presagire. A questo proposito si può dire che tutti noi siamo, anche se in misura diversa, attraversati da due emozioni: siamo entusiasti, quando immaginiamo i progressi che dall’intelligenza artificiale possono derivare, ma, al tempo stesso, siamo impauriti quando constatiamo i pericoli inerenti al suo uso”.
Se da una parte l’Ia può democratizzare l’accesso al sapere, spingere in modo forte la ricerca scientifica o trasferire alle macchine i lavori usuranti, nello stesso tempo “potrebbe portare con sé una più grande ingiustizia fra nazioni avanzate e nazioni in via di sviluppo, fra ceti sociali dominanti e ceti sociali oppressi, mettendo così in pericolo la possibilità di una “cultura dell’incontro” a vantaggio di una “cultura dello scarto”. La portata di queste complesse trasformazioni è ovviamente legata al rapido sviluppo tecnologico dell’intelligenza artificiale stessa.
Proprio questo vigoroso avanzamento tecnologico rende l’intelligenza artificiale uno strumento affascinante e tremendo al tempo stesso ed impone una riflessione all’altezza della situazione. In tale direzione forse si potrebbe partire dalla costatazione che l’intelligenza artificiale è innanzitutto uno strumento. E viene spontaneo affermare che i benefici o i danni che essa porterà dipenderanno dal suo impiego. Questo è sicuramente vero, poiché così è stato per ogni utensile costruito dall’essere umano sin dalla notte dei tempi”.
L’esempio dei coltelli
Il Pontefice ha ricordato gli anni remoti in cui furono introdotti i coltelli, utilizzati poi sia per tagliare pellame e vestiti, sia per uccidersi gli uni con gli altri. “L’intelligenza artificiale, però, è uno strumento ancora più complesso. Direi quasi che si tratta di uno strumento sui generis“.
Mentre l’utilizzo di un utensile semplice, come per esempio il coltello “è sotto il controllo dell’essere umano che lo utilizza e solo da quest’ultimo dipende un suo buon uso, l’intelligenza artificiale, invece, può adattarsi autonomamente al compito che le viene assegnato e, se progettata con questa modalità, operare scelte indipendenti dall’essere umano per raggiungere l’obiettivo prefissato”.
Scelte o decisioni?
“La macchina può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche”, ha ricordato il Santo Padre. “L’essere umano, invece, non solo sceglie, ma in cuor suo è capace di decidere. La decisione è un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica”.
L’uomo non dovrà quindi perdere il controllo dell’Ia. “Abbiamo bisogno”, ha spiegato Francesco, “di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignità umana. Proprio su questo tema permettetemi di insistere: in un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”.
Uno strumento che può sfuggire al controllo
Oltre a questo, “il buon uso, almeno delle forme avanzate di intelligenza artificiale, non sarà pienamente sotto il controllo né degli utilizzatori né dei programmatori che ne hanno definito gli scopi originari al momento dell’ideazione. E questo è tanto più vero quanto è altamente probabile che, in un futuro non lontano, i programmi di intelligenze artificiali potranno comunicare direttamente gli uni con gli altri, per migliorare le loro performance. E, se in passato, gli esseri umani che hanno modellato utensili semplici hanno visto la loro esistenza modellata da questi ultimi – il coltello ha permesso loro di sopravvivere al freddo ma anche di sviluppare l’arte della guerra – adesso che gli esseri umani hanno modellato uno strumento complesso vedranno quest’ultimo modellare ancora di più la loro esistenza”.
Algoritmi
L’intelligenza artificiale, ha puntualizzato il Pontefice, “usa delle operazioni algebriche da effettuarsi secondo una sequenza logica (per esempio, se il valore di X è superiore a quello di Y, moltiplica X per Y; altrimenti dividi X per Y). Questo metodo di calcolo – il cosiddetto “algoritmo” – non è dotato né di oggettività né di neutralità. Essendo infatti basato sull’algebra, può esaminare solo realtà formalizzate in termini numerici”.
Non solo: “gli algoritmi disegnati per risolvere problemi molto complessi sono così sofisticati da rendere arduo agli stessi programmatori la comprensione esatta del come essi riescano a raggiungere i loro risultati. Questa tendenza alla sofisticazione rischia di accelerarsi notevolmente con l’introduzione di computer quantistici che non opereranno con circuiti binari (semiconduttori o microchip), ma secondo le leggi, alquanto articolate, della fisica quantistica. D’altronde, la continua introduzione di microchip sempre più performanti è diventata già una delle cause del predominio dell’uso dell’intelligenza artificiale da parte delle poche nazioni che ne sono dotate”.
Rischi per la neutralità
Tra i pericoli dello strumento, le fake news (l’Ia attinge da dati, veri e falsi che siano) e la mancanza di oggettività. “Nessuna innovazione è neutrale”, ha ribadito il Santo Padre. C’è il rischio “che l’intelligenza artificiale limiti la visione del mondo a realtà esprimibili in numeri e racchiuse in categorie preconfezionate, estromettendo l’apporto di altre forme di verità e imponendo modelli antropologici, socio-economici e culturali uniformi. Il paradigma tecnologico incarnato dall’intelligenza artificiale rischia allora di fare spazio a un paradigma ben più pericoloso, che ho già identificato con il nome di “paradigma tecnocratico”. Non possiamo permettere a uno strumento così potente e così indispensabile come l’intelligenza artificiale di rinforzare un tale paradigma, ma anzi, dobbiamo fare dell’intelligenza artificiale un baluardo proprio contro la sua espansione. Ed è proprio qui che è urgente l’azione politica”.