ChatGPT
A stupire è lo stupore. Ma davvero c’era qualcuno che poteva dubitare che diventasse disponibile prima o poi – più prima che poi – un aggeggio come ChatGPT ? Davvero non ci eravamo accorti che Google translate, da un po’ – ormai da un bel po’ – aveva smesso di farci sbellicare, leggendo le improbabili traduzioni che ci proponeva agli esordi, per diventare un arnese assai utile, per molti di quotidiano utilizzo? È David Quammen, nel suo recentissimo Senza respiro, a raccontare di come la notte di Capodanno del 2020 Marjorie Pollock, vice-direttrice di un servizio di segnalazione epidemiologica, trovato un servizio giornalistico su un affidabile sito d’informazione in lingua cinese, lo copia in un sistema di traduzione automatica sul suo pc e capisce, per la prima volta, che un nuovo agente patogeno della famiglia dei Coronavirus sta per travolgere le nostre esistenze. Just simple as that: funziona!
La domanda è come. E la risposta, a far data più o meno dagli inizi degli anni ’90 del secolo scorso, è: senza teoria! Nel caso di Google translate senza una teoria scientifica del linguaggio, senza simboli e senza logica; senza una teoria anatomica del volto, se ti chiami Clearview e vendi servizi di face recognition alle forze di polizia, utilizzando invece 3 miliardi di immagini disponibili sui social media (e poi, via di forza bruta, via di potenza di calcolo). Se ti chiami Cambridge Analytica… beh, lo sapete già! Ma c’è anche un inquietante IBorder Ctrl che un annetto e mezzo fa verificava la possibilità di usare un software automatico per intervistare i rifugiati ai confini, così da leggere micro espressioni del volto e scoprire eventuali dichiarazioni menzognere: e se vi si è acceso il fotogramma… sì, proprio come in Blade Runner (il cui futuro remoto era il 2019).
Tutto questo è solo una minima parte di ciò che è possibile fare con l’attuale Intelligenza Artificiale, da più o meno trent’anni. Quella di prima, il progetto inaugurato grosso modo negli anni ’50, negli anni ‘80 si era bloccato. Le ragioni le potete ascoltare dalla viva voce di Nello Cristianini – un italiano che l’AI la insegna a Bristol – in occasione della XXXVI edizione di “La lettura del Mulino”, da lui svolta il 6 Novembre 2021, e vale molto più del tempo che vorrete dedicargli. Anticipando: fino a quando si è pensato di sviluppare i programmi dell’intelligenza artificiale immaginando, prima di mandare a memoria la teoria, acquisendo conoscenza e assiomi, poi di sviluppare l’algoritmo (prima la teoria linguistica, dicevamo, poi l’implementazione) ebbene, la macchina non ha mai funzionato.
Fino al giorno in cui Frederick Jelinek (nulla a che fare con Elfriede), un teorico dell’informazione di origini ceco-americane che lavorava in IBM, durante quegli anni ’80 di stagnazione delle ricerca, ha l’idea di imboccare una scorciatoia, sostituisce la grammatica con la statistica, comincia ad alimentare la macchina di testi, sempre più testi in maniera indifferenziata, senza alcun criterio di scelta, migliaia, milioni, centinaia di milioni di testi, e pronuncia una frase poi diventata iconica nell’ambiente: “Ogni volta che licenzio un linguista, le prestazioni del riconoscimento vocale aumentano.”
Basta teoria, al diavolo gli assiomi e la conoscenza: se non capisci un sistema non importa, basta emularne il comportamento, conta la previsione e non la comprensione del fenomeno che riproduciamo con la macchina. È l’alba del machine learning, quello che noi traduciamo con “apprendimento automatico”, è la storia dell’Intelligenza Artificiale degli ultimi 25-30 anni. Così nasce Amazon, così veniamo guidati negli acquisti: se faccio incetta di Gin, prima o poi sul cellulare, da qualche parte, “popperà out” il suggerimento di aggiungere dell’acqua tonica al carrello. Buona idea, in effetti! Così funziona un programma di completamento delle frasi: digito, “Tanto va la gatta al lardo…” e il mio device completa, “… che ci lascia lo zampino.”
È perché è intelligente come me? No! È perché pensa? Manco per sogno. È statistica e calcolo delle probabilità. L’intelligenza Artificiale non pensa come noi. La verità è che non pensa – anche se ci piace scriverlo – tantomeno capisce. Macina una quantità stellare di dati dove legge la previsione più probabile: oggi comincia a sfornare testi in tutto e per tutto simili a quelli che cucina la nostra naturale intelligenza, ma non lo fa come l’ultima versione di homo sapiens. Sicché funziona, in un’altra maniera ma funziona. Just simply as that!
Semplice (!), ma ovviamente con annessi problemi. Diversi problemi, problemi nuovi. Anche di questo parla Cristianini, che ho fin troppo plagiato: li ricorderò comunque in chiusura. Torniamo invece alla cronaca, alle grida dopo l’irruzione di ChatGPT. La preoccupazione generale, manco a dirlo, è che l’intelligenza artificiale sia destinata a sostituire la mente umana. Siamo sempre lì, dalle parti di Matrix e prima ancora delle tre leggi della robotica, anche se, pur in lontananza, il profilo mitologico rimane quello del Golem e del dottor Frankenstein. La hubris.
Un luogo della letteratura, e della fantascienza in genere, a mio parere fin troppo comune. Da ultimo non se la sono sentiti di evitarlo nemmeno Kazuo Ishiguro e Ian McEwan, il primo con Klara e il Sole, il secondo con Macchine come noi. Ishiguro mette in bocca al padre della bambina Josie, una domanda per Klara, l’AA, l’amica artificiale, l’inevitabile domanda, aggiungerei: “Tu credi al cuore umano? [...] non dovresti imparare il suo cuore?”; Adam, l’androide progettato da un Turing che non si è suicidato, nel contro-passato immaginato da McEwan, è geloso del rapporto tra Charlie, il “proprietario” che lo ha “acquistato” investendo i suoi non troppi guadagni, e la giovane Miranda. Cervello e passione, sense and sensibility.
Potranno le macchine provare l’amore o la rabbia? Diventeranno più intelligenti di noi e avranno infine il sopravvento? Nel caso, ben ci starà, è una vita che inseguiamo tentazioni prometeiche. Bah! Problemi vecchi, timori antichi. Meglio, molto meglio a mio parere, un film tedesco del 2021, scritto e diretto da Maria Schrader, dal titolo I’m your man (Ich bin dein Mensch, in originale) dove un superbo Dan Stevens, diventato famoso con la saga di Downton Abbey (e che recita in perfetto tedesco) interpreta il ruolo di un robot, Tom, programmato come l’uomo ideale per Alma (Alma!), una ricercatrice innamorata del suo lavoro di paleolinguista e affettuosamente ricattata dal suo capo che, in cambio di finanziamenti alla ricerca, le chiede di “testare” l’umanoide per tre settimane, così da potergli inviare una relazione utile al comitato etico di cui è a capo, e di conseguenza decidere se e come permettere a queste “macchine come noi” una vita in società.
Tom non pensa e agisce come un umano, impara e progredisce grazie alla lettura dei dati, ovvero del comportamento di Alma, rassicurandola, dopo le sue prime inevitabili gaffe, che nel tempo, e magari in poco tempo, sarà capace di comportarsi come lei si aspetta, come l’uomo che Alma vorrebbe avere al suo fianco. Senza rovinare la sorpresa di una visione assai raccomandabile, Alma, nella sensibilissima interpretazione di Maren Eggert, dopo un’iniziale reazione a dir poco perplessa e a tratti indispettita, e pur assolutamente consapevole della natura “non umana” di Tom, è costretta ad ammettere: “Vorrei non averti mai conosciuto. Ora la mia vita senza di te è solo una vita senza di te”.
Fa pensare. Siccome viviamo in relazione, siamo nodi nella rete di legami che ci interdefiniscono con altri umani, ma anche con gli amici animali, più o meno domestici, con le piante, e pure con oggetti che ci sono cari (le nostre coperte di Linus), con memorie individuali e collettive, con racconti, immagini, brani musicali… l’affermazione di Alma assume un significato prezioso quanto profondo: quando qualcuno, ma anche qualcosa, entra nella nostra vita, c’è il caso che possa diventare significativo, indipendentemente dalla sua natura ontologica. In questo senso non troverei necessaria una distinzione/contrapposizione tra il temibile imperialismo del virtuale simbolico (vario) e la realtà. Prima di tutto perché è reale quello di cui facciamo esperienza grazie ai nostri sensi e all’intelligenza e al linguaggio con i quali lo interroghiamo. Per Sars-CoV-2 la realtà è tutto ciò che gli permette di trasmettersi garantendogli sopravvivenza; per più di tre miliardi di anni, a partire da LUCA, the last universal common ancestor, l’intricato albero dell’evoluzione ha prodotto una quantità straordinaria di vita organica, a diversissimi livelli di complessità, il cui agire nel mondo non differiva – e non differisce troppo, per le specie ancora esistenti – da quello di un virus: guadagnarsi la sopravvivenza, scansando i pericoli e approvvigionandosi di risorse. I cefalopodi, i polpi che studia, tra gli altri, Peter Godfrey-Smith sono “altre menti”, rappresentando probabilmente l’esito di una linea evolutiva completamente diversa dalla nostra: in cosa consiste l’attività mentale di un polpo, cos’è la sua realtà? (tanto per non parlare sempre di pipistrelli). E per tornare a noi, a homo sapiens, non si rischia una deriva relativista ricordando, come ci ha insegnato anche il linguista Louis Hjelmslev, che ciò di cui abbiamo esperienza è solo la sostanza del contenuto, quello che emerge alla nostra sensibilità quando sulla materia esistente proiettiamo la forma linguistico-culturale con la quale siamo cresciuti.
C’è una ragione per cui la traduzione è difficile e, necessariamente, infedele: perché non si traduce da lingua a lingua, ma da mondo linguistico a mondo linguistico. Non a caso, riproponendo a suo modo i salutari esercizi di emendazione dell’intelletto di Spinoza, Paul Feyerabend raccomandava lo studio di più lingue e i conseguenti esercizi di traduzione. Che sono utilissimi quando si chiede un’indicazione stradale, ma indispensabili quando si è troppo sicuri di qualcosa. Quando capita, meglio provare a dirlo in una altra lingua – raccomandava Feyerabend – magari in più lingue: solo se suona ancora convincente, c’è il caso che possa essere condivisibile. O altrimenti si può cercare la verità e toccare la volta del mondo, certo. Che se c’è, però, è come la nota di tromba di Jacopo Belbo nel Pendolo di Foucault: brevissima (dopo, è solo commento).
L’attuale Intelligenza Artificiale, programmi come ChatGPT, non lavorano secondo logica biologico-cognitiva: sono “The end of the theory” come titolava un numero di Wired del 2008, si tratta di dati, statistica, potenza di calcolo, calcolo delle probabilità. E sono e saranno sempre più efficienti: sarebbe sorprendente – e ipocrita, aggiungerei – scoprirci sorpresi, all’annuncio di ogni nuovo aggeggio. Antropomorfizzando – ma lo facciamo anche con gli animali domestici, con i delfini, Godfrey-Smith lo fa raccontando dei calamari – si tratta di un’altra intelligenza, altri modi di manifestarsi della realtà, altre menti: il rischio non è di sostituire quella umana, lasciamo queste suggestioni al più pigro dei racconti di fantascienza.
Ma si tratta di macchine alle quali deleghiamo decisioni: è necessario stabilire regole di fiducia. E, per inciso, sulla preoccupazione che in questi giorni qualche testata ha strillato, paventando il rischio per le professioni creative, quelle responsabili della produzione di contenuti… c’è da chiedersi, semmai, per quale ragione ChatGPT dovrebbe funzionare peggio di qualcuno che viene pagato 10 o anche 5 euro lordi a pezzo. Sempre più spesso si leggono testi tradotti male e editati peggio: se si ha a cuore l’umana creatività, bisognerebbe prima di tutto riconoscerne il valore.
Poche storie, non è possibile bandire l’uso delle nuove tecnologie, a scuola o dove sia, tantomeno staccarne la spina: scorciatoie per eludere i problemi. Problemi ci sono e vanno affrontati, lo anticipavamo. Chat-GPT sembra essere stato programmato così da cominciare ad evitare i bias di conferma più critici, quelli che digitano “sporco negro” e non “sporco caucasico” semplicemente perché la prima occorrenza è molto, ma molto più frequente nei miliardi di testi che abbiamo immesso nelle macchine. Il ché, però, conferma il problema della frequenza statistica dei più diversi pregiudizi: se immettiamo dati nella macchina senza alcun criterio, quella rigurgita ciò con la quale l’abbiamo abboffata: GIGO, Garbage In, Garbage Out!
Se contano solo i click – sottolinea Cristianini – la macchina sta registrando i nostri interessi o le nostre debolezze? Il confine non è chiaro (non lo è mai) e la domanda è cruciale. Ci sono giganteschi problemi di privacy, di fairness, di equity. Nell’immettere dati dovremmo essere d’accordo su quali siano i valori umani da difendere: lo siamo? Se – si chiede Cristianini – voglio istruire un programmatore così che le stringhe garantiscano che la macchina sia neutrale, come faccio a definire la neutralità? Cosa significa? Vogliamo che i nostri cv – per essere ammessi all’Università, per essere assunti da un’azienda – siano vagliati da un programma? Vogliamo delegare a una macchina il giudizio in Tribunale? Si tratta di deleghe, ma sono scelte, umane. Non sono domande per le macchine. Non sono risposte per la tecnica. Bisogna dettare le regole, bisogna accordarsi sulla governance, è un problema di democrazia a livello planetario di cui, per altro, si sta già discutendo nelle sedi istituzionali: più che denunciare scandalizzati a mezzo stampa – per 24ore, al massimo 48 – più che chiamare ad una generica ribellione sulla rete social, bisogna prosaicamente impegnarsi, studiare e provare a dire la nostra.
Un aneddoto, dell’alba del pc. Primi anni ’80. A un convegno dedicato alle nuove tecnologie per l’insegnamento, un docente di matematica di un liceo sperimentale romano racconta l’esperienza dell’ultimo anno, quando in più occasioni ha perorato l’acquisto di un pc ad uso didattico. All’ultima riunione del consiglio d’istituto la presidente, e decana dei professori di matematica – di un liceo sperimentale, sottolinea di nuovo – si rivolge al collega con la consueta condiscendenza: “Caro professore, va bene, abbiamo deciso che per il prossimo anno avrà il suo benedetto computer. A una condizione però: che lo si usi solo per fare calcoli!”. Più divertito che sconsolato, il professore risponde: “Cara collega, lei mi ricorda una mia vecchia zia, il giorno che le portammo il televisore a casa. Dopo qualche minuto, sorridendo soddisfatta, commentò: ma che bella invenzione, basta chiudere gli occhi e sembra la radio”.
Teniamo gli occhi aperti.
Leggi anche
Riccardo Manzotti, L'IA pensa. E noi?
Tiziano Bonini, Può l'intelligenza artificiale essere etica?
Riccardo Manzotti, Intelligenza artificiale: Proprio come noi?
Riccardo Manzotti, Pensiero senza pensatori