Harari: umani nella rete

22 Ottobre 2024

Che cos’è questo Nesso che appare nel titolo del nuovo libro di Harari e che suona così esoterico a prima vista?

Il nesso è ciò che creano le informazioni. L’aumento dell’informazione disponibile nella storia, grazie all’emergere di nuove tecnologie per comunicarla, ha dato vita a “reti informative” sempre più complesse. Per “reti informative” Harari intende le catene di umani connessi dalla stessa informazione, grazie a una tecnologia. Una volta definita cosa è per lui l’informazione, Harari passa in rassegna la storia delle reti informative, dalle storie orali fino ai mass media del Novecento, passando per l’ascesa di burocrazie e istituzioni grazie alla disponibilità di carta e poi di libri. Questa prima parte è forse la più originale del libro, e la più interessante, dove la formazione di storico di Harari è più evidente. 

Il libro, in generale, è pieno di aneddoti, riflessioni e affermazioni brillanti, e la sua lettura in qualche modo ci stimola a riflettere, ci fornisce esempi e dati importanti per ragionare. Soprattutto ho apprezzato la sua capacità, invidiabile, di tessere insieme cose molto lontane tra loro, nel tentativo di costruire un puzzle enorme, che tenga insieme storia, politica, economia, sociologia, tecnologia in un enorme lasso di tempo. Ma queste operazioni così ambiziose rischiano sempre di promettere tanto e mantenere poco. Sono piacevoli letture, che spaziano nel tempo e nella storia intellettuale umana, ma ad osservare da vicino l’impalcatura del libro costruita da Harari, ci si accorge presto che il castello dorato perde pezzi e fa acqua ovunque e cercherò di spiegare perché.

Già nei primi capitoli emerge l’ossessione che permea tutto il volume: i regimi totalitari e le istituzioni come la Chiesa, che gestiscono l’informazione accentrandola e non si dotano di “meccanismi di auto-correzione” o se ne hanno, sono troppo deboli, nascondono la “verità”, si credono infallibili, non accettano critiche e non sono capaci di imparare dai propri errori. Al lato opposto, Harari pone istituzioni come le democrazie “su larga scala” e in particolare le istituzioni scientifiche. E qui incontriamo il primo “problema” del testo: Harari idealizza il metodo scientifico e le sue istituzioni al punto da celebrare la cultura accademica del “publish or perish”, quel meccanismo che spinge i ricercatori a non avere una vita sociale e competere strenuamente tra loro pur di pubblicare nelle “migliori” riviste del mondo, pena la propria invisibilità (morte accademica). Secondo questa sua visione delle istituzioni scientifiche idealizzata (e molto liberista), il modello di conoscenza scientifica è quello con il miglior meccanismo di auto-correzione, perché non è disposto ad accettare l’errore istituzionale e l’ignoranza e ricerca costantemente la falsificazione della conoscenza al fine di migliorarla. 

La seconda parte del libro – il network inorganico – si concentra invece sui tratti distintivi e i pericoli dell’intelligenza artificiale, che lui considera “implacabile” ma anche “fallibile”. Le preoccupazioni maggiori che emergono in questa parte sono che le IA possono farci il lavaggio del cervello, falsare elezioni, spingere i popoli alla guerra civile, aumentare la divisione politica nelle democrazie, generare discriminazioni e sorvegliarci meglio di un regime totalitario, sancendo la fine della privacy. Il potere economico concentrato nelle mani di Google invece lo preoccupa molto meno. 

Però Harari coglie nel segno quando afferma che l’IA ha un potere sempre maggiore nell’assistenza sanitaria, nell’istruzione e nell’applicazione della legge e molti altri campi – cosa preoccupante perché potrebbe prendere decisioni sbagliate al posto nostro in settori chiave della società. Ma non appena riusciamo a trovare qualcosa di condivisibile nella sua analisi, arriva puntuale la buccia di banana: “poiché diamo agli algoritmi un potere sempre maggiore…”. Ma chi è il soggetto? Noi? Noi singoli? No. Sono le compagnie tecnologiche, che, in un vuoto di policy, si prendono questo potere in maniera unilaterale e “coloniale”. È come se Harari ciclicamente, nel libro, fosse in grado di indicare correttamente le criticità dell’IA, ma non di inserirle in una cornice politica ed economica ben precisa: quella del capitalismo digitale emerso in società liberali. La parola capitalismo, infatti, compare solo 7 volte in 600 pagine. E di queste 7, 6 sono citazioni in nota di altri autori, mentre Harari la usa una sola volta in tutto il libro! Una! Harari menziona centinaia di volte il totalitarismo, ma del capitalismo non c’è traccia. Se ne è accorto anche il critico del Guardian, che nella sua recensione scrive: “Nexus ha alcuni curiosi punti ciechi; è strano, in una critica di una tecnologia guidata in gran parte da aziende in cerca di profitto, che il capitalismo non venga quasi mai menzionato”.

Questa cecità di fronte alle responsabilità materiali (anche ambientali) del capitalismo digitale è una delle maggiori debolezze del libro e si lega all’altra maggiore debolezza, quella del determinismo tecnologico che vedremo tra poco.

Harari sostiene che “uno sguardo più attento alla storia rivela che i luddisti non avevano del tutto torto e che in realtà abbiamo ottime ragioni per temere le nuove potenti tecnologie”. 

Anche qui, scambia il dito con la luna. Per un momento si schiera su posizioni “luddiste”, facendoci credere che i luddisti fossero contro la tecnologia. Ma contributi classici come quello di Hobsbawn The Machine Breakers (1952), o più recenti come quello di Gavin Mueller (Breaking things at work, 2021) e di Brian Merchant (Blood in the Machine, 2023), hanno chiarito come i luddisti non fossero contro le tecnologie, ma contro il modo capitalista di sfruttarle per automatizzare il lavoro umano. Naturalmente non c’è traccia di questi autori tra le note del libro di Harari, perché non ha una formazione materialista. Continua ad accusare la tecnologia di avere un potenziale distruttivo intrinseco, trattandola come una divinità aliena, ma questo è pericoloso, perché oscura la natura umana ed economica dell’IA. L’IA viene descritta come un’intelligenza aliena (inorganica). Mentre l’IA non è né intelligente né artificiale, come ha invece osservato Kate Crawford, che descrive l’IA come un apparato socio-tecnico emerso da un complesso militar-industriale capitalista in un contesto di deregolamentazione politica. Ma in 600 pagine di libro sull’IA non menzionato mai Crawford, una delle più eminenti critiche globali dell’IA. Un recente paper scientifico ha dimostrato che l’IA non solo non ha una coscienza, come sostiene giustamente anche Harari, ma non “pensa”, non sa ragionare: “I LLM non sono in grado di fare un vero e proprio ragionamento logico, ma cercano di replicare le fasi di ragionamento osservate nei dati di addestramento” – “purtroppo” l’intelligenza dell’IA è fin troppo umana.

k

La seconda maggiore debolezza del libro, dal mio umile punto di vista di sociologo, è che Harari concepisce la tecnologia senza considerare le reti sociali, politiche ed economiche in cui è immersa, ragion per cui non può che scivolare, anche inconsapevolmente, verso il determinismo tecnologico.

Oscilla continuamente tra il sottolineare che il tecno-determinismo è sbagliato perché ci esonera dalle nostre responsabilità e posizioni apertamente o forse inconsapevolmente deterministiche, come quando, sostiene che “Chiesa cristiana e apparato stalinista non sarebbero mai state possibili senza l’invenzione di tecnologie come il libro e il telegrafo”.

Quando torna comodo alla sua argomentazione, le tecnologie non sono né buone né cattive, ma il loro impatto sociale dipende da come le usiamo. In altri passaggi però, sempre a beneficio del suo argomento, le tecnologie diventano onnipotenti e capaci di determinare fenomeni sociali. Anche se lo bandisce apertamente, il determinismo rientra sempre dalla finestra, come un lapsus. 

La riflessione delle scienze sociali intorno alla tecnologia è ormai matura e ha una lunga tradizione alle spalle, ma Harari sembra ignorarla del tutto. Non c’è spazio nel libro di Harari per una visione non dicotomica, non semplicistica e non determinista della tecnologia, che è invece il cuore del contributo che gli studiosi sociali di Scienza e Tecnologia hanno dato alla nostra disciplina da Latour in poi. Questi studiosi intendono la tecnologia come un “apparato socio-tecnico”, o socio-materiale. Se i luddisti avevano ragione, è perché avevano capito che il telaio a vapore sarebbe stato usato dai proprietari delle fabbriche per velocizzare e sostituire il lavoro umano. Harari si preoccupa, come i luddisti, ma attribuisce il pericolo alla tecnologia in sé (se non è tecno-determinismo, questo, cos’altro è?), e non all’industria tecnologica che la sta sviluppando. 

Nella terza parte del libro Harari sostiene una tesi molto semplice: la sfida attuale alla gestione dell’IA può essere affrontata positivamente da un solo sistema politico: quello della “democrazia su vasta scala”. E la sua tesi diventa ancora più chiara: la “soluzione” alle minacce della rete di informazione digitale è la democrazia liberale. A questo punto credo di aver finalmente capito Harari: è un liberale che ha un’idea molto ingenua e idealizzata della democrazia (e della scienza) e soprattutto fa il madornale errore di equiparare la democrazia liberale con la democrazia tout court. Per scrupolo, ho cercato per parole chiave nel libro: in 600 pagine “social-democrazia” e “social-democratico” non compaiono mai. Quando Harari parla di democrazia come modello opposto al totalitarismo, ha in mente solo il modello liberale occidentale di essa. Un ingenuo, inconsapevole (?) e ottuso universalismo che è, dal mio modesto punto di vista, il vero problema della sua posizione intellettuale, più del suo stile saggistico semplificatorio. La sua tendenza a idealizzare e universalizzare la democrazia liberale mi fa finalmente comprendere meglio le aspre critiche che Harari muove all’inizio a Michel Foucault e Edward Said. Poche righe prima aveva criticato la visione populista e “complottista” dell’informazione e dei media come visione dell’informazione incentrata sul potere e profondamente scettica – uno scetticismo che porta alle teorie cospirazioniste – e poi, con una mossa logica del tutto riduzionista, scorretta e superficiale, sostiene che questa visione scettica dei populisti trumpiani contemporanei e dei no-vax era già stata da loro condivisa: “Opinioni molto simili sono state diffuse dalle menti più brillanti dell’umanità. Alla fine del XX secolo, per esempio, intellettuali della sinistra radicale come Michel Foucault e Edward Said sostenevano che le istituzioni scientifiche come gli ospedali e le università non perseguono verità oggettive e senza tempo, ma usano il potere per determinare ciò che conta come verità, al servizio delle élite capitaliste e colonialiste. Queste critiche radicali si sono spinte fino a sostenere che i ‘fatti scientifici’ non sono altro che un ‘discorso’ capitalista o colonialista”.
Poche pagine dopo, in un paragrafo sul significato di “verità” – in cui sostiene che la realtà è universale e oggettiva, anche se culture differenti possono interpretarla in maniere opposte – Harari aggiunge che “chiunque rigetti l’universalismo, rigetta la verità”. E implicitamente accusa Foucault e Said di rifiutare l’universalismo, e quindi, la Verità.
Possiamo fidarci di un universalista come Harari, che non ha mai accettato, parrebbe, la svolta post-moderna? Come possiamo credere seriamente che le democrazie liberali siano “la soluzione”, se sono state esse stesse, negli Stati Uniti e in Europa, a permettere l’ascesa indisturbata di poche grandi compagnie tecnologiche che hanno brevemente accumulato questo alto potere computazionale che fa tanto paura ad Harari (e anche a me)?

k

Nonostante questo enorme pregiudizio, la soluzione democratica avanzata da Harari presenta anche aspetti interessanti, come la sua proposta di alcuni principi guida per gestire la sfida dell’IA: il bene comune e il decentramento.

Altre “soluzioni” politiche molto condivisibili proposte dall’autore sono la tassazione dei giganti digitali e la loro regolamentazione. Ma quanto a soluzioni concrete, il lettore troverà davvero molto poco.

Alla fine, la Grande Soluzione di Harari, ribadita ancora nelle conclusioni, è molto “ragionevole”. Per gestire l’IA, è meglio una democrazia rispetto a un regime totalitario. Chi potrebbe non essere d’accordo con questa “banale” osservazione? Non servivano forse 522 pagine per maturare questa consapevolezza. Il problema è che poco dopo Harari scivola di nuovo nel determinismo tecnologico quando sostiene che non è facile per le democrazie gestire questa sfida tecnologica, perché sono proprio queste tecnologie a minare la tenuta della democrazia. Ricadendo in una delle classiche ossessioni dei liberali, Harari insinua che le minacce maggiori alla tenuta democratica provengano dalla disinformazione diffusa dagli algoritmi e dalla polarizzazione politica che favoriscono: sostiene che le crescenti divisioni politiche che stanno mettendo in crisi le democrazie liberali non sarebbero tanto dovute alla crescente distanza ideologica tra progressisti e conservatori, ma… agli algoritmi. Invece di cercare le cause nelle diseguaglianze sociali, nel ritorno delle ideologie, nella distanza culturale e nelle crisi economiche, Harari spiega il populismo e la polarizzazione con la proliferazione di video su You Tube, che “radicalizzerebbero” le persone. 

Harari parla infine dell’ascesa degli imperi “digitali” e del rischio che questi imperi usino l’IA per farsi la guerra. Inizia citando (ma solo in nota) il lavoro di Couldry e Mejias sul colonialismo dei dati. Nel loro Data Grab (2024), i due sociologi dei media mostrano la continuità tra gli imperi coloniali del passato e quelli del presente. Ma Harari sposta l’attenzione sulle differenze tra gli imperi del passato e quelli attuali potenziati dall’IA, e quasi ci fa rimpiangere i cari vecchi imperi incapaci di raccogliere così tanta informazione su di noi. 

Critica le visioni del mondo “incentrate sul potere”, tipiche delle narrazioni “marxiste e populiste”. A questa visione che definisce “cupa”, contrappone un “globalismo” basato sulla cooperazione reciproca, ma questo bel proposito rende invisibili le asimmetrie di potere esistenti nella società, che rendono diseguale la “cooperazione” tra occidente e resto del mondo. Ma forse anche io sono un cupo sociologo che vede conflitti e relazioni di potere ovunque.

Harari cade poi di nuovo nella trappola del determinismo tecnologico, quando sostiene che “il passaggio da un’economia basata sui materiali a un’economia basata sulla conoscenza ha ridotto i potenziali vantaggi di una guerra”, per cui non sarebbe detto che in futuro ci aspettino più guerre. E qui sciorina una serie di dati per dimostrare che dopo la II guerra mondiale le guerre nel mondo sono diminuite, come i fondi statali destinati alle spese militari, suggerendo una correlazione tra ascesa della società dell’informazione e riduzione della guerra. Ma qui prende un granchio enorme, perché la società dell’informazione è molto materiale, per niente immateriale. Se avesse letto Crawford avrebbe capito che l’industria dei dati ha bisogno di acqua, energia elettrica ed enormi appezzamenti di terra per costruire nuovi data center. Poi se ne accorge, perché la guerra in Ucraina (e a Gaza) indebolisce questo argomento. Ma spiega candidamente il ritorno della guerra con il fatto che, come tutte le decisioni umane, anche la scelta di diminuire le spese di guerra può essere reversibile. Ma come? Afferma che le guerre diminuiscono perché l’economia dell’informazione le rende meno vantaggiose, e tre pagine dopo per giustificare il ritorno della guerra nell’epoca della massima ascesa dell’economia della conoscenza, si appiglia alla volubilità delle scelte umane? Questa è solo una delle contraddizioni logiche e argomentative che si trovano lungo il libro, ed è il frutto dell’ambizione smisurata di Harari di spiegare “tutto” dimenticando le relazioni materiali e di potere.

A una lettura più attenta questo libro non ha tanto a che fare con le tecnologie dell’informazione; piuttosto, l’argomento principe di Harari è il seguente: come totalitarismi e democrazia hanno gestito le passate tecnologie dell’informazione e come gestiranno quelle nuove come l’IA. 

Se il problema che pone il potere computazionale dell’IA è giustamente riconosciuto come politico, non si può ridurre la politica alla semplice dicotomia democrazia (liberale) vs. totalitarismo, o, come Harari nelle conclusioni, sostenere che per superare le sfide della rivoluzione digitale dell’IA basti costruire istituzioni con forti meccanismi di auto-correzione come le democrazie liberali. In mezzo ci sono centinaia di sfumature. Ancora più ingenuamente, Harari sostiene che, siccome gli esseri umani sono interessati alla verità, “esiste la possibilità di risolvere alcuni conflitti in modo pacifico, grazie al dialogo continuo, al riconoscimento degli errori, all’accoglienza di nuove idee rivedendo le storie in cui crediamo. Questo è l’assunto di base delle reti democratiche e delle istituzioni scientifiche”. Ma, siccome non ipotizza un mondo in cui il potere è distribuito in maniera diseguale, non vede che questo “dialogo” non è mai tra pari, nella realtà, e così il suo appello risulta, alle mie orecchie, ingenuo e vuoto.

Infine: Harari ha una formazione storica ma ha deciso di parlare della storia delle tecnologie per l’informazione. Mi sarei aspettato che per farlo, fosse salito sulle spalle di tutti quegli studiosi, storici delle tecnologie e dei media, sociologi della comunicazione, ecc., che da almeno cent’anni li studiano. Invece non c’è praticamente traccia di queste voci. Nexus ignora Harold Innis, e il suo Impero e Comunicazioni, anche se ne semplifica molto le idee, consapevolmente o meno, quando ripercorre la storia dell’umanità e delle tecnologie informative, suggerendo una correlazione, come Innis, tra forme di comunicazione e modelli di civiltà e società. 

E soprattutto ignora tutto il fiorente dibattito intorno agli studi critici degli algoritmi e dell’intelligenza artificiale, che meriterebbero molta più visibilità di Harari, a partire dal libro di Matteo Pasquinelli sulla storia sociale dell’intelligenza artificiale, recensito qui. Pochissimi di questi autori vengono menzionati, e se accade, è solo una volta in una noticina, come per Ruha Benjamin, Sasha Costanza Shock e Virginia Eubanks, tra l’altro tutte autrici di libri estremamente popolari. È come se Harari, delle scienze sociali che studiano da cento anni la tecnologia e ora le reti informatiche, conoscesse solo i blockbuster.

Naturalmente questa mia critica, mossa da un vecchio e bianco intellettuale di provincia italiano a un intellettuale universalmente riconosciuto come Harari, è filtrata dalla mia posizione. Viene da un sociologo cresciuto con i testi dei Cultural Studies britannici, che nutre ancora un po’ di fiducia nella socialdemocrazia e che ha una visione “socio-tecnica” della tecnologia. La mia critica è tutto fuorché “vera” o “universale”. È situata. Come scriveva il sociologo americano Howard Becker sulla ricerca sociale: “nella grande varietà dei nostri oggetti di ricerca e nel lavoro fatto attraverso tutti i metodi di ricerca a nostra disposizione, non possiamo evitare di prendere posizione, per ragioni fermamente radicate nella struttura sociale in cui viviamo”.

Anche Harari dovrebbe ammetterlo, ma è troppo universalista per farlo. 

Leggi anche:
Michela Dall'Aglio | Yuval Noah Harari. Evoluzione o estinzione del sapiens?
Matteo Pasquinelli, Algoritmi del capitale
Tiziano Bonini, IA: né intelligente, né artificiale

Se continuiamo a tenere vivo questo spazio è grazie a te. Anche un solo euro per noi significa molto. Torna presto a leggerci e SOSTIENI DOPPIOZERO
k

Bollo blu Dona (Mobile)