Governance e algoritmi
Cosa fanno gli algoritmi alle nostre società? Possono governarle? E se sì, come? Questa è la domanda che abbiamo introdotto in un precedente articolo. Due esempi pratici nel campo delle tecnologie dell’informazione e della comunicazione serviranno a esplorare ulteriormente in che modo gli algoritmi sono strumenti e meccanismi di governance.
Motori di ricerca
I modi in cui il World Wide Web dà più visibilità ad alcune informazioni che ad altre sono al cuore del dibattito ricorrente su quali siano le caratteristiche fondamentali del mondo digitale come “spazio pubblico”. Secondo Jürgen Habermas, il “padre” del concetto di sfera pubblica, due condizioni sono necessarie a uno spazio pubblico strutturato: la libertà di espressione, e la discussione come forza d’integrazione. L’architettura della “rete delle reti” sembra racchiudere in sé, e articolare in maniera soddisfacente, queste due condizioni. Tuttavia, se la prima è spesso riconosciuta come una delle “virtù” più diffuse di Internet, la seconda sembra oggi molto più incerta.
Nel suo famoso libro The Wealth of Networks, il giurista Yochai Benkler sostiene che viviamo attualmente in un “ordinamento” globale intrinseco al Web. La caratteristica centrale di questo sistema è che la selezione delle informazioni rilevanti, pertinenti, appropriate per un determinato scopo non è più il monopolio dei gatekeepers - giornalisti, bibliotecari ed editori - ma è delegata agli utenti di Internet, editori essi stessi. Citandosi l’un l’altro, raccomandandosi l’un l’altro in nicchie conversazionali, questi individui e gruppi selezionano l’informazione “di qualità” per gli algoritmi, i quali, a loro volta, la classificano e ordinano per renderla disponibile attraverso i motori di ricerca. L’ordinamento delle informazioni presenti sul Web diventa una co-produzione e co-costruzione degli utenti Internet e degli strumenti computazionali a loro disposizione.
Agli algoritmi deleghiamo l’integrazione delle conversazioni e delle discussioni che avvengono a livello micro. Gli argomenti aggregati che risultano da quest’integrazione sono percepiti dal pubblico come un “consenso universale implicito”: hanno la debolezza di un’informazione che non può essere fatta risalire a nessun individuo specificamente, e la forza, al tempo stesso, di un dato che si basa su un vasto aggregato di opinioni. I motori di ricerca, e gli altri strumenti di classificazione dell’informazione presente su Internet, costruiscono una gerarchia di visibilità dell’informazione, proponendola tra i primi risultati della ricerca o dissimulandola tra gli ultimi. Decidendo, di fatto “cosa dev’essere visto”, gli algoritmi che sottendono questi strumenti possono scoraggiare o incoraggiare la discussione e la controversia - e contribuiscono così a costruire l’agenda pubblica delle priorità politiche e sociali, selezionando inoltre gli interlocutori “che importano”.
In particolare, grazie al quasi-monopolio di Google nel settore della ricerca sul Web, l'algoritmo PageRank che ne è alla base è stato ampiamente esaminato come il nuovo gatekeeper e “dittatore benevolo” della sfera pubblica digitale. Tale algoritmo comprende, secondo una “ricetta” che resta, parzialmente, un segreto industriale, diversi insiemi di criteri di misurazione che valutano il grado di autorità (secondo il numero di citazioni), l’ampiezza dell’audience (secondo il numero di visite o click), il grado di prossimità e di affinità (in base alle raccomandazioni), la rapidità (dipendente dall’aggregazione dei risultati in real-time). PageRank, in quanto “master switch” di Internet, centralizza ed organizza la circolazione dell’informazione nella Rete, e per ogni interrogazione fatta al motore di ricerca, arbitra su ciò che è importante e rilevante.
Le raccomandazioni nel commercio elettronico
Ormai da alcuni anni, il sito di commercio elettronico Amazon.com è un importante “prescrittore”, le cui prescrizioni si basano sulle raccomandazioni dei clienti: lettori, ascoltatori, cinefili. Il sito Web di Amazon rende possibile a ciascuno dei suoi utenti registrati di conoscere, con un semplice click, gli altri acquisti fatti in passato da utenti che hanno acquisito lo stesso titolo. Le raccomandazioni personalizzate non sono nuove nel mondo dell’edizione e della vendita dei libri - digitali o meno. Semplicemente, come nota ironicamente un bibliotecario, sono storicamente una “prerogativa esclusiva dei librai, dei bibliotecari… e degli amici. Adesso, il tuo miglior amico per consigli di lettura si chiama ‘Al Goritmo di raccomandazione’… e ti vuole tanto bene!”
Indubbiamente, è sulla sistematizzazione e sull’automazione di un fenomeno molto diffuso e molto sociale - lo scambio di consigli tra individui che condividono preferenze ed affinità - che Amazon e altri siti di vendita online basano i loro sistemi di raccomandazione. Si ispirano a metodi che si basano sulla somiglianza di contenuti (considerare due libri ‘simili’ se hanno in comune un grande numero di parole) e sul filtraggio collaborativo (l’intersezione di liste che contengono libri o elenchi particolari, basate su precedenti acquisti di altri utenti). Amazon ha sviluppato un algoritmo particolarmente efficace, chiamato “filtraggio collaborativo elemento per elemento” (item-to-item collaborative filtering). Benché, nei dettagli, rimanga un segreto industriale, l’algoritmo dimostra ogni giorno la sua efficacia nel personalizzare le proprie raccomandazioni in base agli interessi di ciascuno dei clienti Amazon. Come il suo nome suggerisce, piuttosto che combinare un utente con altri utenti, questo algoritmo mette in relazione ogni elemento ordinato e acquistato dagli utenti con altri elementi, e in un secondo tempo, li combina in una raccomandazione.
Dietro a questo algoritmo - e all’impressione dei lettori/utenti che Amazon conosca bene, forse troppo bene, i loro gusti - stanno anni di ricerca ed esperimenti in un recente campo dell’informatica le cui applicazioni pratiche sono sempre più diffuse, per quanto discrete: il data mining. Per i lettori in cerca di nuove letture, dei suggerimenti simili ad articoli da loro acquistati in passato sono costruiti su un insieme di fonti d’informazioni personali, le quali vanno a nutrire un ampio database dove vengono combinate con altre ‘storie d’acquisto’. Queste informazioni possono variare dai più ovvi dati demografici, estesi alla famiglia, a considerazioni più complesse, che derivano dai siti consultati prima di arrivare su quello di Amazon, o dalle ‘abitudini di clic’ dell’individuo. Gli intrecci tra elementi di questo largo database, diretti dall’algoritmo brevettato da Amazon, sono le fondamenta di suggerimenti ormai familiari agli internauti (“Raccomandato perché hai acquistato…”) e influenzano un numero considerevole di acquisti ogni giorno.
Algoritmi e regole, algoritmi come regole
Viviamo in un mondo sempre più ‘algoritmico’. Le invisibili strutture computazionali che guidano il nostro accesso all’informazione e i nostri acquisti si estendono a numerosi altri contesti, dai software di riconoscimento facciale ai mercati finanziari. Come dimostra non solo la ricerca accademica, ma anche la più recente attualità, la relazione tra algoritmi e regole (diritto e politica) ha due facce. Da un lato, si tratta della regolazione degli algoritmi da parte delle istituzioni. La creazione di leggi riguardanti sistemi complessi e altamente automatizzati dovrebbe accordare una maggiore attenzione ai luoghi e ai tempi in cui si programmano gli algoritmi? Una regulation più stringente dovrebbe essere applicata a contesti specifici? Che forma prenderebbe, sarebbe persino possibile, e quali sarebbero i suoi effetti? D’altro canto, la misura in cui viviamo in un mondo che è di fatto gestito, regolato, governato dagli algoritmi deve essere meglio compresa. Non solo la misura in cui, data la loro ubiquità, gli algoritmi ci governano - ma anche “che cosa significherebbe resistere loro”.
Questo articolo, così come la sua prima parte, sono tratti dall’articolo Governance By Algorithms, pubblicato nell’agosto 2013 sull’Internet Policy Review.