ChatGPT: l’IA che parla, ma non pensa
Mentre si è già raffreddato l’hype intorno al Metaverso, software come ChatGPT godono attualmente di una crescente attenzione: molte mani si sono alzate alla domanda di Olivier Beaudet-Labrecque su chi avesse già utilizzato questo strumento dell’Intelligenza artificiale (IA) generativa. Insieme a Luca Gambardella, Antonio Callegari e Dalmazio Ambrosioni, Beaudet-Labrecque è stato relatore nella serata inaugurale, svoltasi lo scorso 21 settembre all’Università della Svizzera italiana e moderata da Cecilia Brenni, di una serie di eventi che l’Osservatore Democratico di Massagno propone sulla sfida delle nuove tecnologie. Il primo incontro è stato dedicato al tema delle opportunità e dei rischi dell’IA per la nostra vita e il futuro della società umana.
Cosa bisogna dunque aspettarsi da questo nuovo prodotto di OpenAI e perché segna un passo decisivo in avanti non solo nell’evoluzione delle tecnologie digitali, ma anche nell’insieme delle sfide per la società delle intelligenze naturali? Come ha ricordato Gambardella, finora nessuna “macchina intelligente” è riuscita a superare il cosiddetto test di Turing. Esso consiste sostanzialmente nel rilevare la capacità di un’IA a reggere alla conversazione con un essere umano senza farsi sbugiardare. Ora, nell’ultima versione ChatGPT-4 il software di OpenAI simula un pensiero individuale e riesce ad esprimerlo attraverso un discorso. Alla base di questa tecnologia non c’è ovviamente alcun pensiero e la sequenza delle parole viene costruita attraverso un enorme calcolo statistico-probabilistico sulla base di big data. Tuttavia, data la sua capacità e i risultati che già ha dimostrato, c’è veramente da aspettarsi che il test di Turing verrà presto superato, facendo saltare la barriera invalicabile tra intelligenza umana ed artificiale?
Mentre gli esperti – dai tecnici ai filosofi – discutono questa ipotesi, i relatori della conferenza erano d’accordo sul fatto che, anche con gli sviluppi futuri della tecnologia, la distanza tra uomo e macchina non verrà meno. E ciò perché da parte della macchina non c’è (auto-)coscienza, intenzionalità o emozione – cioè le dimensioni della persona umana. Tuttavia, stupisce – e forse ci inquieta pure – che proprio una funzione come il linguaggio, per la quale ritenevamo indispensabile il presupposto di queste dimensioni mentali ed umane, possa essere svolta da qualcosa che non le possiede. In ogni caso, con ChatGPT-4 la tecnologia è definitivamente arrivata laddove non ce la saremmo mai aspettata, ovvero nel mezzo della società umana e della sfera della persona. Ed è per questo che costituisce non solo una grande opportunità, ma anche un rischio per noi esseri umani.
Chi si aspetta che questa rapida evoluzione della tecnologia digitale relegherà ben presto l’essere umano in secondo piano, superandolo proprio nella sua capacità più eccelsa, ossia nell’intelletto, sarà sicuramente deluso. Callegari ha infatti ricordato il monito di Bill Gates, secondo il quale, di fronte all’impatto delle innovazioni tecnologiche, si sopravvalutano sempre gli effetti immediati, nei primi anni dopo la loro introduzione, mentre si sottovalutano clamorosamente le conseguenze che esse producono in una prospettiva di dieci anni. Tra un decennio vivremo quindi in una società meno umana perché la maggior parte delle attività umane sarà sostituita dall’IA? E se ciò che fa l’essere umano può ormai essere riprodotto anche dalle macchine, significa che non c’è più nulla di speciale quando un uomo o una donna pensano rispetto al calcolo svolto dall’IA? In fin dei conti, ciò che chiamiamo “pensare”, “ragionare”, “esprimerci”, “intendere”, magari anche “sentire”, sono solo i nostri modi antropomorfi di chiamare processi in buona sostanza matematici e quindi computabili anche dentro di noi? Il pensiero, allora, è soltanto “arte combinatoria” – e noi siamo essenzialmente “macchine”?
Chi si fermasse qui commetterebbe però – come hanno evidenziato i quattro relatori – un grande errore di pensiero – e fors’anche una pigrizia. Quando ChatGPT afferma qualcosa, essa non si riferisce infatti alla realtà della nostra esperienza umana, ma svolge solo processi anonimi rappresentabili da bit, cioè dagli “0” e dagli “1”. Non si riferisce alla realtà come facciamo noi grazie alla nostra esistenza biologica e i cinque sensi del nostro corpo. In altre parole, le macchine non generano significato. E in questo significato sta l’autenticità e la creatività dell’umano. Ambrosioni ricorda non a caso la decima sinfonia di Beethoven, ultimamente prodotta dall’IA sulla base di schizzi dello stesso compositore: sarebbe semplicemente inascoltabile. Ma anche laddove riuscisse a migliorare, siamo davvero sicuri di aver riprodotto il genio del compositore?
Non è dunque un umanesimo che dobbiamo trovare per il mondo dell’IA, bensì prendere sul serio la sfida che essa ci pone e ritrovare così la nostra umanità: «l’idea che una macchina che legge tutto, qualcosa impara, è un segnale che c’è spazio per educarsi studiando», come sottolinea Gambardella. Esiste quindi lo spazio per un nuovo umanesimo? Bisogna comprendere bene l’impatto della tecnologia sulle persone e sulla società, per trovare il modo di utilizzarla nel migliore modo possibile in vista di una società più umana, come avviene ad esempio – osserva Beaudet-Labrecque – nel diritto penale.
Per impostare bene tale uso e quindi per comprendere meglio in che cosa consista la nostra responsabilità, mai delegabile alle macchine, basta considerare che l’essere umano non si realizza quando fa calcoli, ma quando fa scelte. E mentre il calcolo delle macchine prescinde completamente da ogni valutazione, le scelte dell’essere umano si basano su ciò che chiamiamo i valori. Lasciamo pure alle macchine la perfezione nei calcoli – persino in quelli che producono linguaggio: non sta in ciò la dimensione dello specifico umano. Recuperiamo piuttosto la nostra responsabilità per i valori dell’umanità.
I prossimi incontri dell’Osservatore Democratico sull’IA sono programmati per il 19 ottobre e il 16 novembre.
Markus Krienke