Individui e macchine / L’automazione della società e i suoi limiti

27 Dicembre 2019

Ultimamente sono usciti diversi libri che hanno come fuoco i processi di automazione messi in moto dalle tecnologie digitali: automazione del gusto (gli algoritmi di Spotify che ci dicono cosa ascoltare e formano il nostro gusto musicale), automazione del lavoro (non solo la sostituzione dell’uomo con le macchine, ma anche la direzione del lavoro umano attraverso le macchine, come succede ai lavoratori di Amazon o a quelli della gig economy, il cui boss è incarnato negli algoritmi delle app che utilizzano per trovare clienti), automazione del consumo (siamo sempre più indirizzati da algoritmi di raccomandazione verso l’acquisto di una merce), automazione della cultura e della società più in generale.

Solo quest’anno, in italiano, sono usciti due libri molto importanti: La società automatica (Meltemi ed.) di Bernard Stiegler e Il capitalismo della Sorveglianza (LUISS ed.) di Shoshana Zuboff.

In inglese soltanto è uscito invece Automated Media (Routledge) di Mark Andrejevic. Secondo Andrejevic, l’era industriale ha visto l’automazione del lavoro fisico, mentre l’attuale era dell’informazione è caratterizzata dall’automazione del lavoro cognitivo e comunicativo. Per Andrejevic, quando un algoritmo decide quale notizia, brano musicale o video farci vedere, siamo di fronte all’automazione della cultura. Quelli che lui chiama “media automatizzati” stanno iniziando a permeare il mondo intorno a noi, mediando i nostri scambi con gli altri e con gli oggetti del mondo. Le reti comunicative digitali di cui si serve la gig economy (l’economia delle piattaforme come Uber e Deliveroo) sono in grado, sostiene Andrejevic, di “sussumere”, di inglobare tutte quelle forme di lavoro un tempo non sottoposte a supervisione. 

 

Per tenere sotto controllo il lavoro in nome dell’efficienza produttiva non c’è più bisogno di confinarlo nelle fabbriche, come aveva fatto il capitalismo industriale del 19° e 20° secolo. Il capitalismo informazionale del 21° secolo, tramite le reti comunicative digitali, può estendere il suo controllo su tutte le forme di lavoro che accadono al di fuori dei tradizionali luoghi del lavoro. Le app della gig economy monitorano, sorvegliano e rendono produttivo lo sforzo di un rider in bicicletta, il lavoro di guida di un pilota di Uber, il lavoro di cura di una assistente agli anziani ecc..

 

Stiegler è il più apocalittico di tutti questi autori, nella (pre)visione delle conseguenze della crescente automazione della società. L'era dell’Antropocene in cui viviamo, secondo Stiegler, è “quella del capitalismo industriale, un'epoca in cui il calcolo prevale su ogni altro criterio di decisione, e in cui il divenire algoritmico e meccanico si concretizza e si materializza come automatismo, costituendo così l'avvento del nichilismo, in quanto la società computazionale diventa una società automatica e controllata a distanza”. La nostra vita quotidiana “è completamente sovradeterminata dall'automazione, per esempio attraverso lo smartphone".

 

Secondo Stiegler, noi esseri sociali sottomessi al capitalismo digitale siamo ormai ridotti a una condizione di automi sovradeterminati da meccanismi algoritmici che canalizzano i nostri comportamenti sociali. 

In sintonia con Stiegler è anche Shoshana Zuboff, che nel suo monumentale libro Il capitalismo della Sorveglianza (un libro che per la sociologia critica è importante quanto per gli economisti lo è stato Il Capitale nel XXI secolo di Piketty alcuni anni fa) mette a nudo con grande precisione il modello di creazione di valore dell’attuale capitalismo digitale: il modello capitalista di aziende come Google e Facebook si fonda sulla capacità di sorvegliare il comportamento di miliardi di persone. L’era del capitalismo di sorveglianza, secondo Zuboff, inizia con la “scoperta” del “surplus comportamentale”, ovvero i dati sul comportamento online e offine dei propri utenti. Questo surplus (al contrario del surplus Marxiano, non si fonda sullo sfruttamento della forza lavoro, ma dei dati prodotti dagli utenti) alimenta la “machine intelligence”, l’intelligenza alimentata da algoritmi che “imparano” analizzando grandi moli di dati comportamentali. Questi algoritmi, secondo Zuboff, sarebbero i nuovi “mezzi di produzione” del capitalismo: non più macchine in grado di velocizzare il lavoro umano nella produzione di beni materiali, ma software in grado di migliorare notevolmente le capacità di pre-visione del comportamento futuro degli utenti, abbassando i rischi d’impresa. Google e Facebook processano e raffinano i dati comportamentali (il surplus) trasformandoli in previsioni, vendute poi sul mercato della previsione comportamentale.

 

 

Zuboff attribuisce a Google e Facebook la capacità di prevedere con molta precisione i nostri comportamenti futuri e sostiene che l’obiettivo finale di questo tipo di capitalismo è quello di anticipare completamente i nostri comportamenti (bisogni, desideri di consumo, tentativi criminali, capacità di ripagare un mutuo, sarebbero tutti prevedibili in anticipo, secondo questa teoria), riducendoci di fatto a degli automi. La promessa dell’automazione nell’età dell’informazione, secondo Andrejevic è quella di anticipare la “agency”, l’autonomia degli individui, insieme ai loro desideri. Essere liberi significa anche compiere azioni imprevedibili, decidere di fare cose mai fatte prima, deviare dal corso delle nostre azioni passate. Se la Zuboff avesse ragione, se stessimo cioè vivendo l’alba di una nuova epoca in cui le nostre azioni future saranno anticipate con altissime probabilità di riuscita da macchine intelligenti, allora dove finisce l’autonomia? Questo passaggio del libro di Zuboff lo spiega bene:

 

"All’interno del regime del potere strumentale, l'autonomia mentale e il possesso del diritto al tempo futuro sono gradualmente sommersi sotto un nuovo tipo di automatismo: un tipo di esperienza quotidiana governata da processi di stimolo-risposta-rinforzo, assimilabile all'andirivieni di semplici organismi. (…) Non c'è bisogno di una sottomissione di massa alle norme sociali, nessuna resa del proprio sé al collettivo indotta dal terrore e dalla coercizione, nessuna offerta di accettazione e di appartenenza come ricompensa per essersi piegati al gruppo. Tutto questo viene superato da un ordine digitale che prospera nelle cose e nei corpi e che trasforma la volontà in rinforzo e l'azione in risposta condizionata.

In questo modo il potere strumentale produce enormi volumi di dati e conoscenza per i capitalisti della sorveglianza e fa diminuire infinitamente la nostra libertà, mentre rinnova continuamente il dominio del capitalismo della sorveglianza sulla divisione del sapere nella società (...) Un tempo il potere si identificava con la proprietà dei mezzi di produzione, oggi invece si identifica con la proprietà dei mezzi in grado di modificare i nostri comportamenti” (quello che la Zuboff chiama The Big Other, il Grande Altro). (p. 378-379, traduzione mia).

 

Shoshana Zuboff sostiene che per il capitalismo di sorveglianza “non è più sufficiente automatizzare l’informazione attorno a noi; l’obiettivo ora è automatizzare il nostro comportamento”. 

Nella sua interpretazione del capitalismo contemporaneo ci sembra di udire l’eco della critica della ragione strumentale di Horkheimer e Adorno: “il pensiero è reificato come un processo automatico così che può finalmente essere sostituito dalla macchina”. 

 

Ma è davvero così? Ci stiamo passivamente lasciando automatizzare dalle macchine intelligenti del capitalismo digitale? Siamo (di nuovo) di fronte al ritorno di una (mono)visione apocalittica dei (nuovi) media?

 

Tutta questa nuova enfasi su come le piattaforme digitali influenzano la politica e trasformano le industrie culturali, esercitando una forma di potere sempre più capillare, rischia di far perdere di vista lo spazio ancora disponibile per le persone. Ed è esattamente quello che fa Zuboff, quando afferma che la raccolta di dati e l'uso di algoritmi predittivi da parte delle corporation dell'industria tecnologica rappresentano forme di modifica comportamentale capace di rendere il comportamento umano non solo completamente prevedibile e gestibile, ma anche automatizzato attraverso un ordine digitale superiore.

È proprio questo tipo di descrizione del potere esercitato dai magnati dei media contemporanei che è al centro della critica di Sonia Livingstone: "Per teorizzare i recenti e profondi cambiamenti, gli studiosi dei media stanno riaffermando resoconti monolitici del potere che tendono a sminuire o escludere il pubblico e il significato del mondo della vita" (2019, p. 171). L'attenzione al ruolo sempre più centrale degli algoritmi che alimentano le piattaforme digitali commerciali rischia di oscurare l'indagine su quale tipo di autonomia, se esiste, sia ancora in mano agli utenti.

 

 

Se è vero che queste aziende stanno accumulando una quantità di potere inaudita nella storia, la partita non è ancora persa e gli individui non sono stati ancora automatizzati, e mai lo saranno del tutto, senza per lo meno “combattere”.

Se si condividono le conclusioni di Zuboff, si finisce per ripetere gli “errori” della scuola critica, cioè si finisce per credere che i media, da soli, siano in grado di far vincere le elezioni a Trump, di imporre il nazionalsocialismo a una nazione, di far acquistare merci di cui non si sente il bisogno. L’idea che le persone siano degli automi passivi, condizionati dai media, non è nuova nella storia: per Adorno la radio commerciale americana era una potentissima macchina di condizionamento del comportamento collettivo, così come lo era stata la radio nazista in Germania.

Questa visione, che a grandi linee coglie alcuni aspetti significativi del potere dei media di massa, è però di solito una visione grossolana, a maglie larghe, della società. 

Parafrasando Raymond Williams, quando nel 1958 scriveva che “non esistono le masse, esistono modi di vedere le persone come masse” potremmo riscrivere “non esistono gli automi, esistono modi di vedere le persone come automi”. 

 

L’interpretazione che propongo non va nella direzione opposta (quella degli “integrati” che accettano acriticamente il processo di automazione e ne vedono solo gli aspetti positivi), ma scarta lateralmente, cercando di allargare la lente d’ingrandimento e tenere dentro lo sguardo anche tutta quella pletora di situazioni in cui le persone resistono, sovvertono e trasgrediscono al lavoro degli algoritmi, e li ri-utilizzano e li ri-impiegano per scopi che non erano originariamente previsti. 

 

Siamo immersi, nostro malgrado, in questo ecosistema mediale e non possiamo facilmente fare a meno di molte di queste piattaforme, eppure, il rapporto che abbiamo con esse non è mai privo di frizioni, non accettiamo mai passivamente i risultati del lavoro degli algoritmi.

Il rapporto che instauriamo con le macchine algoritmiche è complesso, anche se la bilancia di questo rapporto di forza pende dalla loro parte. Utenti e piattaforme però co-abitano in maniera complessa. La studiosa di media danese Tania Bucher una volta ha osservato che "mentre gli algoritmi fanno certamente delle cose alle persone, anche le persone fanno  cose agli algoritmi" (2017, p. 42). I sistemi algoritmici sono da considerare come un campo di battaglia dove il loro potere viene continuamente rinegoziato. 

 

Quando l’algoritmo di Netflix ci consiglia troppi film romantici ci chiediamo se davvero noi siamo così romantici come dice di credere l’algoritmo e allora cominciamo a cliccare su serie piene di violenza solo per il gusto di contraddire l’algoritmo. 

Su Instagram esistono gruppi di “solidarietà” di utenti che si organizzano per mettere like alle foto dei membri del gruppo per aiutarsi a vicenda a dare più visibilità alle proprie immagini, ingannando l’algoritmo che crede di essere testimone di un improvviso aumento di interesse per un’immagine e quindi la spinge ulteriormente. Così come su Spotify esistono gruppi di fan che si organizzano per cliccare tutti insieme i brani appena usciti del loro artista preferito, per ingannare l’algoritmo di Spotify e far entrare il brano nelle playlist più popolari.

Su Uber, quando i prezzi delle corse sono troppo bassi per via di un eccesso di offerta di passaggi, i driver si organizzano via chat e si disconnettono dall'applicazione contemporaneamente, ingannando così gli algoritmi di Uber e facendo loro pensare che ci sia una carenza di driver, quindi gli algoritmi fanno risalire il prezzo delle corse e uno ad uno i driver rientrano, ma riuscendo a strappare corse a un prezzo più alto.

Quando Trump ha visitato Londra per la prima volta, alcuni attivisti politici hanno manipolato l’algoritmo di ricerca di Google e hanno fatto in modo che se un utente ricercava la parola “idiota” in Google immagini gli venissero restituite solo immagini di Trump.

Un giovane inglese ha creato l’account di un finto ristorante su TripAdvisor e lo ha fatto diventare in breve il ristorante più popolare di Londra sulla piattaforma, prendendosi gioco degli algoritmi reputazionali di Tripadvisor.

 

Questi sono solo alcuni esempi di pratiche di co-abitazione messe in campo dagli individui per sopravvivere, senza soccombere, ai risultati degli algoritmi.

Se non possiamo batterli, possiamo però conviverci cercando di resistergli, di rispondere, in maniera tattica. In ogni situazione in cui un “debole” non può evitare di co-abitare con un “forte”, sono sempre emerse delle tattiche di difesa per garantire la sopravvivenza. James Scott ha descritto le “weapons of the weak”, le armi dei deboli, ovvero le forme di resistenza quotidiana dei contadini nella storia. Ora è il tempo di considerare anche le forme di resistenza quotidiana, anche minime, al lavoro degli algoritmi. Perché finché troviamo queste pratiche, significa che non siamo ancora stati automatizzati, significa che c’è ancora spazio per gestire con un po’ di autonomia le proprie vite e prendere decisioni non condizionate dalle previsioni di un algoritmo.

Ha ragione la Zuboff quando ci descrive questa nuova epoca del capitalismo e ci ricorda che bisogna essere consapevoli del modello economico-sociale in cui stiamo entrando. Umilmente però credo che non abbia ragione quando sostiene in maniera semplicistica che ci stiamo lasciando automatizzare. 

Seguendo Stuart Hall quando sosteneva che il campo culturale è sempre un campo di battaglia, credo che anche oggi il campo culturale mediato dalle tecnologie digitali sia un campo di battaglia, in cui differenti attori sono in relazione tra loro in differenti rapporti di forza e non esiste un unico attore in posizione di dominio costante. 

Sì, siamo entrati nella società della sorveglianza, ma possiamo sempre metterci una maschera e oscurare le telecamere o i droni, come hanno fatto i manifestanti ad Hong Kong. Il conflitto è aperto, i rumori della battaglia sono già qui, ma l’esito è ancora incerto.

Se continuiamo a tenere vivo questo spazio è grazie a te. Anche un solo euro per noi significa molto. Torna presto a leggerci e SOSTIENI DOPPIOZERO