Primi passi
Hai deciso di passare a Linux ma non sai da che parte cominciare?
di Francesco Vitali Gentilini (pubblicato su limes 02/2017)
L’uso spregiudicato di specifici modelli matematici ha cambiato il destino europeo e americano con l’arrivo di Brexit e Trump. La sfida per il potere tra i big della Rete è in corso. Chi c’è dietro la finta neutralità delle formule algoritmiche. Il mondo di Alphabet.
Nel 2013 si perdono le tracce di questo fronte di liberazione digitale, quasi due mesi prima, per coincidenza, che avesse luogo quella che possiamo definire una delle maggiori esperienze internazionali di «liberazione dei dati», quella effettuata da Edward Snowden ai danni dell’intelligence americana. Lo spirito del tempo, su cui Google è sempre in anticipo rispetto agli attori istituzionali, non richiedeva più l’impegno del suo team, che peraltro aveva già dato i suoi frutti in termini di reputazione, di difesa della capitalizzazione sul mercato e qualità del servizio offerto.
Questo tipo di potere – legato alle capacità di trattamento delle informazioni – è ben noto nel mondo dei consumatori. Lo sanno bene gli imprenditori, il cui successo commerciale è sempre più spesso determinato dal ordine con cui Google li posiziona tra i risultati delle ricerche degli utenti. Lo sa chi deve accedere a un prestito, la cui fattibilità e i tassi di rientro sono in genere deliberati in base a una serie di formule matematiche dai parametri spesso non riferibili alla propria capacità finanziaria. Lo sa chi deve acquistare un biglietto di aereo online, il cui prezzo non è unico e predeterminato, ma deciso dal soggetto che vende il biglietto caso per caso, in base a fattori sconosciuti ai consumatori – ad esempio il modello di cellulare utilizzato per collegarsi a Internet, l’orario di accesso o le ricerche effettuate in precedenza – che consentono di profilare il viaggiatore e ottenere da lui il massimo profitto possibile. Anche i pendolari italiani hanno appena scoperto 4 che da circa un decennio l’algoritmo di Trenitalia, per il calcolo del costo del biglietto, non funzionava correttamente, e faceva pagare i viaggiatori un prezzo più alto del dovuto rispetto ai chilometri percorsi. Lo stanno scoprendo gli investitori e le autorità di controllo del mercato azionario, non più tenute a confrontarsi quotidianamente con soggetti umani che comperano e vendono strumenti finanziari, ma con software autonomi.
Qualunque sia il settore di riferimento, ci sono alcuni elementi che sempre più accomunano il funzionamento di questi algoritmi e le società che li controllano: la cosiddetta asimmetria informativa, l’assenza di trasparenza, la bolla intorno all’utente (filter bubble). Il primo aspetto è caratterizzato dal enorme sproporzione di conoscenza – di informazioni acquisite sulla controparte – tra l’utente finale e la società che offre il servizio. All’atto pratico è come se si svolgesse una partita a scacchi tra un utente bendato alle prime armi, contro un campione internazionale che oltre a vedere tutte le pedine disposte sul campo ha anche a disposizione un libro con tutte le mosse eseguite dal utente nelle partite precedenti. In questa sfida perde sempre il cieco senza informazioni. Anche nel caso in cui si presenti una win-win situation 5, la distribuzione dei benefici risulta assolutamente squilibrata a favore del soggetto con l’informazione.
Il secondo aspetto riguardal’assenza di trasparenza relativa ai princìpi e ai parametri alla base del funzionamento dell’algoritmo, ovvero quelle regole che determinano l’ottenimento di un risultato piuttosto che un altro. Questa opacità non consente all’utente di definire alcuna strategia in grado di migliorare il risultato atteso, per ottenere un finanziamento a un tasso migliore, per pagare meno un biglietto, per individuare o per evitare forme di discriminazione basate sul colore della propria pelle o sulle parole cercate online.
Il terzo aspetto riguardale bolle informative create intorno al soggetto in questione: gli saranno mostrate solo le informazioni *che l’algoritmo ha calcolato gli possano interessare, sulla base delle scelte effettuate in precedenza da lui o da altre persone che sono state profilate nella stessa maniera.Il filtro può essere generato anche in chiave negativa, non fornendo dati o servizi a un soggetto specifico. Si viene quindi isolati in una sorta di bolla basata su stereotipi matematici di cui non si ha conoscenza e di cui non si vedono i limiti. La combinazione di questi tre fattori chiarisce un aspetto fondamentale: non esistono algoritmi neutri dato che comunque il loro funzionamento è determinato dalle formule discriminanti, dal peso attribuito ai singoli parametri inseriti, dalle procedure che ne determinano il risultato. L’algoritmo non riflette mai la realtà, ma ne propone una sua versione. Lo sanno bene i cartografi, i fotografi e i giornalisti i quali, a seconda dell’«inquadratura» scelta, *modificano la percezione che il lettore avrà della realtà. L’algoritmo e i suoi creatori fanno qualcosa di molto più sofisticato rispetto al foto-giornalista. Perché modificano in diretta l’inquadratura a seconda del tipo di utente.
Trump, nel corso della campagna delle primarie prima, e poi durante la competizione diretta contro Hillary Clinton, si è scagliato duramente contro la dirigenza di Facebook che a suo avviso stava utilizzando i propri algoritmi per ridurre l’efficacia dei suoi messaggi così da fargli perdere la competizione elettorale. Durante questo scontro avviene un paradosso: una talpa interna al team di giornalisti che sovrintendeva i «trend topics» di Facebook spiega alla rivista Gizmodo 8 come si interveniva manualmente per forzare i risultati del proprio algoritmo in modo da censurare, in determinate aree, le news e i video interessanti per la destra Usa e per i conservatori – come le notizie sulla Cpac (la Conferenza annuale di stampo conservatore) – sostituendole con notizie opposte, oppure con le breaking news selezionate da altri siti e che su Facebook erano ignorate.
Soggetti umani che correggono un algoritmo incapaci in quel momento di offrire risultati adeguati agli scopi. Tom Stocky, vicepresidente per la ricerca della compagnia di Menlo Park, è immediatamente intervenuto per smentire la vicenda, dichiarando che Facebook avrebbe indagato al suo interno con estrema serietà sulle rivelazioni fatte.Questo tipo di manipolazione è considerata inaccettabile per una piattaforma neutrale che ospita – senza responsabilità alcuna – solo gli scambi dei suoi membri, ma è pratica comune nel mondo dei media, dove le scelte editoriali hanno un forte impatto sulla gerarchia delle notizie e sul taglio che ne viene dato. Ecco uno dei motivi per cui la società manifesta pubblicamente la sua intenzione di divenire la più grande e potente media company globale. Maggiori oneri, ma anche molta più libertà per scegliere cosa può diventare trend (notizia virale) del giorno, e cosa no.
È lo stesso amministratore delegato della società di strategia di comunicazione e analisi di big data, Alexander James Ashburner Nix, ad attribuire la straordinaria vittoria di Trump al «rivoluzionario approccio alle comunicazioni basate sui dati» da loro sviluppato. La piattaforma scientifica della società è basata sugli studi di Michal Kosinski presso lo Psychometrics Centre dell’Università di Cambridge. Durante il suo dottorato, Kosinski aveva applicato i modelli di psicometria – destinati a misurare le caratteristiche psicologiche di un individuo – agli utenti Internet, in particolare di Facebook. Anche solo analizzando i «like», Kosinski già nel 2012 aveva dimostrato che tutti i soggetti erano classificabili secondo cinque macro-categorie. Aumentando i dati a disposizione per l’analisi, il suo algoritmo consentiva di prevedere caratteristiche, scelte, comportamenti, gusti. * Lo studioso aveva tra l’altro accumulato un’apposita banca dati che raccoglieva le scelte di chi aveva compilato test online o su smartphone grazie all’apposita app da lui sviluppata. *Proprio lui aveva segnalato il rischio di questi nuovi strumenti che trasformano i telefoni e gli altri devices intelligenti in questionari psicologici continuamente compilati senza averne la consapevolezza10. Quando la Scl – Strategic Communication Laboratories – società madre di Cambridge Analytica – scopre questi studi, ne acquisisce i princìpi e li industrializza, li implementa all’interno di un algoritmo molto più operativo, capace di definire al meglio, con il necessario apporto umano, il messaggio e le strategie di manipolazione da adottare nell’arena politica. Nix così si vanta pubblicamente 11 di aver generato il profilo di personalità di tutti i cittadini adulti degli Stati Uniti (con oltre 5 mila dati raccolti e analizzati su tutti i 220 milioni di potenziali votanti americani).
Big data, elaborati da algoritmi per generare messaggi personalizzati (tramite tecniche di behavioral micro-targeting) al fine di tenere lontani dai seggi, ad esempio, i potenziali elettori della candidata democratica, tra cui gli elettori indecisi di sinistra, afroamericani e giovani donne; oppure per attivare le persone «fortemente nevrotiche e coscienziose» nella difesa del libero utilizzo delle armi contro furti e altre minacce alla propria sicurezza. Così alcuni afroamericani diventano i target di specifici dark post – inserzioni sponsorizzate presentate come lanci di notizia – di Cambridge Analytica, che mostrano Hillary Clinton che definisce «predatori» i maschi neri.
Alla fine della campagna elettorale, quasi per contrappasso, Facebook con i suoi algoritmi di gestione dei trend topics viene accusata di aver favorito enormemente l’ascesa di Trump12, tanto da spingere Adam Mosseri, suo vicepresidente esecutivo, a dichiarare pubblicamente che il gruppo deve fare di più per affrontare il problema della disinformazione, delle cosiddette fake news, di tutti quegli stratagemmi che hanno consentito di sfruttare a proprio vantaggio i meccanismi di rilancio virale delle notizie all’interno del social network. Lo stesso Mark Zuckerberg dovrà affrettarsi a dichiarare che «è da pazzi dire che Facebook ha aiutato Donald Trump a vincere», poco prima di essere descritto lui stesso come potenziale imperatore, pronto a utilizzare il proprio social media per sostenere una propria futura candidatura in prima persona.
Un’ambizione politica globale disvelata al pubblico proprio con il suo primo manifesto13 politico-sociale, pubblicato dal fondatore del social network il 16 febbraio 2017. Nel suo lungo pamphlet, Zuckerberg afferma che il prossimo obiettivo di Facebook «sarà quello di sviluppare l’infrastruttura sociale per la comunità – per sostenerci, per tenerci al sicuro, per informarci, per l’impegno civico e per l’inclusione». Zuckerberg si espone in prima persona parlando di obiettivi di lungo periodo in cui la sua piattaforma giocherà un ruolo diretto. È in corso la prima chiara guerra tra algoritmi impiegati nelle scienze della comunicazione e nella psicologia applicata14.
Il 14 luglio 2016 15, ad esempio, la Commissione ha inviato a Google (Alphabet) due «comunicazioni degli addebiti». La prima è una comunicazione supplementare a supporto della conclusione preliminare, secondo cui Google abusa di posizione dominante favorendo sistematicamente i propri servizi di acquisto comparativo nelle pagine dei risultati delle ricerche. La seconda è una comunicazione distinta che accusa Google di abuso di posizione dominante, limitando artificialmente la possibilità per i siti Internet terzi di visualizzare i messaggi pubblicitari dei suoi concorrenti.
Il 20 dicembre 2016 la Commissione ritorna anche sull’acquisizione di WhatsApp da parte di Facebook che aveva autorizzato due anni prima, apparentemente sulla base di informazioni non corrette in cui si spiegava adeguatamente come sarebbero stati combinati i dati degli utenti delle due società. L’Antitrust così scavalca sul loro terreno le stesse autorità di protezione dei dati personali, le quali attendono il nuovo regolamento 679/2016 per poter avere qualche strumento in più a tutela della riservatezza dei cittadini europei.
La sfida degli algoritmi è però già più avanti, perché le grandi società della Rete – così come l’industria finanziaria o della genetica – hanno già da tempo implementato le possibilità di autoapprendimento delle macchine offerte dai modelli genetici e neurali applicati all’intelligenza artificiale. In futuro sarà sempre più difficile per Angela Merkel o per l’Antitrust europeo16 chiedere ai Gafa17 & Co quali siano i princìpi alla base del funzionamento dei propri algoritmi che controllano le nostre vite18 e che possono promuovere o abbattere leader e governi, perché neppure loro probabilmente ne avranno piena contezza. A meno che Google non predisponga un ennesimo cambio di fronte, per stupire di nuovo i propri utenti al ritmo del marketing.
Dopo aver firmato già alla fine del 2014 con altre società e gruppi di scienziati un allarmante manifesto pubblico che evidenzia i potenziali enormi rischi di un’intelligenza artificiale non controllata, Google non potrà non lanciare un nuovo progetto per un ipotetico Algorithm Liberation Front utile a rendere trasparenti i criteri decisionali che danno vita e potere a questi strumenti.
Con la creazione della holding Alphabet, lo slogan di riferimento per la società madre diventa molto più convenzionale: «Fa la cosa giusta». L’originale «Don’t be evil» («Non essere malvagio») sopravvive tra le pagine del codice di condotta della sola Google.
Vedi ad esempio la cosiddetta «strategia del cuculo», in F. Vitali, «Mobile payment e identità elettronica: le nuove sfide per la supremazia commerciale e politica», Nomos&Khaos. Rapporto Nomisma 20122013 sulle prospettive economico-strategiche, Osservatorio Scenari Strategici e di Sicurezza, 2013.
M. Bussi, «Merkel dice basta allo strapotere di Google e Facebook», Milano Finanza, 29/10/2016. 4. Vedi ad esempio F. la spina, «Beffa abbonamenti per i pendolari: “Colpa dell’algoritmo se il treno è più caro”: da dieci anni un errore di calcolo penalizza i viaggiatori. Accordo tra Assoutenti e Trenitalia per rimediare», la Repubblica, 6/2/2017.
Nella teoria dei giochi indica una situazione in cui tutti i partecipanti ottengono comunque un miglioramento della propria situazione.
Facebook conta 1,8 miliardi di utenti attivi ed è il social network preferito in 119 paesi su 149 al mondo, ma indietreggia in Russia, dove prevale l’interesse per piattaforme autoctone, e in alcune zone dell’Africa, in Iran e in Indonesia, dove guadagnano spazi Instagram e Linkedin. Complessivamente Linkedin conquista ben 9 Stati mentre Instagram prevale in 7. Le piattaforme VKontakte e Odnoklassniki, entrambe facenti parte del gruppo Mail.ru, accrescono la loro presenza, rispettivamente, in 7 e 5 territori postsovietici. Vedi V. cosenza, «La mappa dei social network nel mondo: gennaio 2017», www.vincos.it
a.D.i. Kramera, J.e. Guillory, J.t. HancocK, «Experimental Evidence of Massive-scale Emotional Contagion through Social Networks», Pnas, vol. 111, n. 24, 17/6/2014, pp. 8788-8790.
M. nunez, «Former Facebook Workers: We Routinely Suppressed Conservative News», Gizmodo, 9/5/2016.
Vedi H. GrasseGGer, m. KroGerus, «La politica ai tempi di Facebook», Internazionale (or. in Das Magazin, Svizzera), 6/1/2017. Cfr. C. Gatti, «L’arma di persuasione di massa che ha fatto vincere il tycoon», Il Sole-24 Ore, 20/1/2017.
Vedi F. Vitali, «La geopolitica economica dei dati e il futuro del dominio», in Nomos&Khaos Rapporto Nomisma 2011-2012 sulle prospettive economico-strategiche, Osservatorio Scenari Strategici e di Sicurezza, 2012, pp. 207-231.
L’obiettivo dell’amministratore delegato, ovviamente, è quello di vendere al meglio i servizi offerti dalla propria società, magari anche esagerandone le capacità. Non esistono ancora rapporti indipendenti pubblici sul effettivo impatto delle tecniche di guerra psicologica applicate alla campagna elettorale americana dalle società Scl – Strategic Communication Laboratories e Cambridge Analytica. Il successo finale, però, che ha smentito i numerosi sondaggi precedenti, è ben presente a tutti.
A. ciccone, «Trump ha vinto grazie a Facebook? Ma Lol», Valigia Blu, 14/11/2016. Cfr. J. pierre, «Fake News, Echo Chambers & Filter Bubbles: A Survival Guide», 21/11/2016, goo.gl/qEY6i7; s. Flaxman, s. Goel, J.m. rao, «Filter Bubbles, Echo Chambers, and Online News Consumption», Public Opinion Quarterly, Special Issue, vol. 80, 2016, pp. 298-320.
Nel manifesto sono contenuti molteplici riferimenti al futuro ruolo di Facebook nell’arena politica, ad esempio favorendo l’organizzazione di iniziative e manifestazioni anche nella vita reale (to strengthen existing communities by helping us come together online as well as offine), contrastando direttamente quelle che sono considerate dal social network «false notizie», disinformazione, propaganda (to help people see a more complete picture, not just alternate perspectives), spingendo i cittadini ad assumere un ruolo attivo durante le competizioni elettorali (in every election around the world, we keep improving our tools to help more people register and vote, and we hope to eventually enable hun-dreds of millions of more people to vote). Vedi M. zucKerBerG, «Building Global Community», 16/2/2017, goo.gl/k0dic3
Non tutti gli studiosi sono ancora concordi sul potere offerto dagli algoritmi di deep learning applicati ai big data per finalità manipolative, così come le tecniche di neuroimaging per definire le risposte dei singoli individui a determinati stimoli. Vedi ad esempio la posizione dello psicologo cognitivo Gerd Gigerenzer: r. Viale, G. GiGerenzer, «Viva il senso del limite», Corriere della Sera, 15/1/2017.
Nel comunicato rilasciato dalla Commissione europea, la commissaria responsabile per la Concorrenza, Margrethe Vestager, dichiara: «Google ha creato tanti di quei prodotti innovativi che ci hanno cambiato la vita, ma non può arrogarsi il diritto di negare ad altre imprese la possibilità di competere e di innovare».