La brutta verità di Facebook

di Rosa Miriam Elizalde

Nessuno dubita che Mark Zuckerberg faccia di tutto per reinventare il suo monopolio. Accusato per anni di speculare con i dati degli utenti di Facebook, permettere la circolazione di teorie cospirative, incoraggiare il genocidio, trasmettere massacri in diretta e manipolare gli adolescenti per renderli dipendenti dello schermo, l’imprenditore prova a cambiare l’asse della polemica senza però intaccare il modello di business iniziato 18 anni fa e che lo ha trasformato in uno degli uomini più ricchi del mondo.

La società di Facebook ha cambiato nome in Meta e ha annunciato con grande clamore un ingente investimento per costruire il Metaverse, uno spazio di realtà virtuale in cui si potrebbe fare tutto come se ci si trovasse fisicamente nel luogo che si vuole.

Perché questo cambiamento? Senza farvi diretto riferimento, la risposta può essere trovata nel libro di Sheera Frenkel e Cecilia Kang, giornalisti del New York Times, appena uscito in spagnolo: Manipulados, La battaglia di Facebook per il dominio del mondo (Editorial Debate, 2021). In inglese: An Hugly truth: Inside Facebook’s Battle for Domination (Una brutta verità: dentro la battaglia di Facebook per il dominio).

Negli oceani di inchiostro che sono stati dedicati alla piattaforma, è la prima volta che sono state documentate più di mille ore di interviste a dirigenti, ex e attuali dipendenti e loro familiari, amici e compagni di classe Zuckerberg, nonché investitori e consulenti, avvocati e attivisti di lunga data che combattono l’azienda. Le autrici hanno consultato fonti migliori di tutti coloro che le hanno precedute nel genere e riescono a smascherare il modello di business concepito deliberatamente per annientare la concorrenza e spremere così un terzo degli abitanti del pianeta, con un profitto di 85,9 miliardi di dollari nel 2020, e un valore di mercato di 800 miliardi.

Frenkel e Kang dimostrano che i mega-profitti del social network sono andati ripetutamente a scapito della privacy, della sicurezza dei consumatori e dell’integrità dei sistemi democratici senza mai costituire un ostacolo al suo successo. La loro posizione privilegiata è dovuta alla visione d’insieme che la piattaforma offre ai suoi gestori, con un team di intelligence che “ha precedentemente lavorato nella National Security Agency, nell’FBI e in altre agenzie governative, studiando proprio gli hacker e gli altri nemici che ora hanno sotto sorveglianza”.

Una delle sorprendenti rivelazioni del libro è che all’interno dell’azienda ci sono più critiche di quante se ne potesse immaginare. Molti dipendenti di Facebook hanno tentato senza successo di avvisare i propri superiori dei disastri causati dagli algoritmi ossessionati dalla crescita e dal profitto. Alcuni hanno perfino avvertito del disastro che avrebbero provocato in Myanmar.

I dirigenti dell’azienda non sapevano nulla di quel Paese, tranne che era un nuovo territorio da conquistare. Entrando in Myanmar, Facebook ha lanciato un fiammifero acceso su decenni di ribollente tensione razziale, e si è poi girato dall’altra parte quando gli attivisti hanno sottolineato che il fumo stava lentamente soffocando il paese, racconta il libro. Alla fine, l’ONU ha dichiarato che le tensioni etniche avevano portato a un vero e proprio genocidio con il sostanzioso contributo della compagnia del pollice blu, e ha stimato che 24.000 Rohingya sono stati uccisi e 700.000 musulmani sono fuggiti in Bangladesh.

Mentre succedeva tutto questo, saliva il tono della retorica incendiaria di 18 milioni di utenti del social network, monitorati da soli cinque birmani madrelingua, nessuno dei quali viveva in Myanma. (Due settimane fa si è saputo che decine di migliaia di rifugiati Rohingya hanno citato in giudizio Facebook – oggi Meta – negli Stati Uniti e nel Regno Unito per aver promosso incitamento all’odio).

Il libro dimostra che questo caso è forse l’esempio più estremo di come gli algoritmi della piattaforma privilegiano l’estremismo, ma non è l’unico. Più del 90 percento degli utenti attivi di Facebook vive al di fuori degli Stati Uniti e del Canada e l’azienda spesso chiude un occhio sull’incitamento all’odio, perché stimola la crescita degli utenti, specialmente nelle aree oscure del pianeta che a Internet arrivano tardi e male.

Ma l’assalto al Campidoglio di Washington di un anno fa ha spostato il problema in casa, cosa che Cuba ha già subito a causa della dura politica nei suoi confronti che campeggia in Florida e delle profonde lacune di sicurezza della piattaforma social.

Il libro mostra l’incapacità linguistica di comprendere, e quindi di moderare, i milioni di post di utenti delle comunità non anglofone; l’incomprensione dei suoi propri algoritmi; l’immobilismo quando si tratta di intervenire dove i programmi di intelligenza artificiale non arrivano (l’azienda interviene solo tra il 3% e il 5% dei casi di incitamento all’odio e nello 0,6% delle pubblicazioni con contenuti violenti); e una palpabile negligenza, perfino indolenza, nel rispondere ai reclami degli utenti.

Quindi, la tragica verità di Facebook è il business tossico di una società privata disposta a mantenere l’egemonia e il dominio su milioni di soggetti a tutti i costi. Uno degli intervistati dalle giornaliste dice che “il problema di Facebook è Facebook”. Falso. Il problema di Facebook è il sistema progettato in modo che questi monopoli non solo prosperino, ma cambino persino il loro nome per perpetuarsi. La domanda posta da Frenkel e Kang sembra quindi pertinente: cosa faremo di fronte a questa realtà?

Rosa Miriam Elizalde, 6 gennaio 2022

Articolo originario pubblicato su La Jornada, Messico: La fea verdad de Facebook