Facebook e la bulimia di dati

Facebook e la bulimia di dati

Funziona così bene perché sa tutto di noi: è il social network più usato al mondo. Nato con scopi di marketing, il suo algoritmo può essere utilizzato con obiettivi che vanno ben oltre quelli originari. Fino a che punto?

È di pochi giorni fa la notizia che ha coinvolto Facebook in uno dei più grandi scandali di violazione della privacy dei propri utenti. Mai si era parlato così della fine del social network, tanto che diversi utenti, tra cui molti personaggi noti, hanno aderito alla campagna #DeleteFacebook cancellando il proprio account e prendendo le distanze dal colosso americano. Eppure, che Facebook raccogliesse dati sui suoi utenti era cosa risaputa.

Chiunque sia solito navigare sul social network di Mark Zuckerberg sa benissimo come sia capace di mostrare pubblicità su misura e in linea con le nostre preferenze. Cerchi su Internet un prodotto da acquistare? Quel prodotto ti seguirà su Facebook e su altri siti che navighi finché non lo comprerai e probabilmente anche dopo. Siamo abituati a questo tipo di promozione e siamo consapevoli che la piattaforma conosce i nostri dati di navigazione e li usa per scopi pubblicitari. Pensiamo di poter gestire tale fenomeno e di saper decidere autonomamente senza lasciarci influenzare dai messaggi promozionali. Anzi, talvolta troviamo questi messaggi utili perché ci suggeriscono proprio quello che stiamo cercando. Nulla di male, quindi? E se lo stesso algoritmo in grado di conoscere preferenze, abitudini, comportamenti di tutti fosse usato per altri scopi non dichiarati?

Più di un anno fa, dunque molto prima dello scandalo di questi giorni, il Social Media Manager di Donald Trump rivelò di aver utilizzato campagne Facebook ‘nascoste’ – ossia veicolate attraverso i cosiddetti ‘dark post’ visibili solo a audience specifiche – per persuadere le persone a non votare. Furono definiti diversi target a cui indirizzare messaggi creati ad hoc per sortire l’effetto sperato. Ma andiamo con ordine.

Come funziona l’algoritmo di Facebook?

Facebook mostra i post di amici e pagine non in ordine cronologico, ma in modo tale che le persone rimangano più a lungo sul sito. La logica è la stessa che usa YouTube per i video consigliati o per far partire in automatico un nuovo video. L’algoritmo che permette tale funzionamento sceglie cosa mostrarti sulla base di ciò che hai guardato precedentemente o su quello che hanno guardato persone ‘simili’ a te e ti propone contenuti che rientrano nei tuoi interessi e che potresti non trovare da solo. Sembra utile e innocuo, ma se ci fermiamo un attimo a ragionare sulle possibili conseguenze etiche e sociali notiamo che forse non è proprio così.

Nel 2016, proprio durante la campagna di Donald Trump, una sociologa americana ha analizzato alcuni movimenti sociali in rete e, conducendo i suoi esperimenti, ha notato una cosa che tutti possiamo appurare. Dopo aver guardato alcuni video di suprematisti bianchi su YouTube, ha notato che la piattaforma di Google le suggeriva nuovi video da guardare in crescente ordine di estremismo. Lo stesso accadeva guardando contenuti vicini al pensiero di sinistra: YouTube le proponeva video sempre più cospirazionisti.

Dietro lo schermo non c’è una persona che seleziona i contenuti da mostrare, bensì un sistema di intelligenza artificiale in grado di comprendere la natura umana.

L’algoritmo ritiene, a ragion veduta, che le persone siano interessate a contenuti via via più ‘estremi’ e che, attratti da questi contenuti, rimangano più tempo sul sito; nel frattempo – tra un video e l’altro o tra un post e l’altro – compaiono pubblicità su pubblicità. E così via: più azioni si compiono sul sito, più l’algoritmo registra i comportamenti e gli altri dati di navigazione utili a profilare le persone e a usarle come bersagli pubblicitari. A ogni profilazione corrispondono gruppi di utenti simili riconosciuti come ‘sensibili’ a un certo tipo di messaggio.

Che si tratti di Facebook o di YouTube, la logica è sempre la stessa: i post che compaiono sulla tua bacheca sono quelli che l’algoritmo ritiene più interessanti per te e non sono gli stessi che popolano la bacheca dei tuoi amici, a meno che non abbiate caratteristiche, interessi e comportamenti molto simili. Sui social network non vi è una base comune di informazioni e, considerando che molte persone formano la propria opinione su tali piattaforme digitali, si rischia di rendere impossibile il dibattito pubblico a favore dell’estremismo di idee.

È stato dimostrato con vari esperimenti che ciò che l’algoritmo sceglie di mostrare può influenzare le emozioni e le decisioni degli utenti, compreso il comportamento politico. Facebook stesso, nel 2010, durante l’Election Day, ha fatto un esperimento su oltre sessanta milioni di americani i cui risultati sono stati resi pubblici subito dopo. Ad alcuni di loro ha mostrato il messaggio “Oggi è il giorno delle elezioni”, ad altri lo stesso messaggio ma corredato di piccole foto degli amici che avevano dichiarato di aver già votato. I post così strutturati hanno notevolmente aumentato il numero dei votanti. Nel 2012, l’esperimento è stato ripetuto e lo stesso tipo di messaggio ha portato altri 270mila elettori alle urne. Per comprendere il potere di Facebook basti pensare che nel 2016 le elezioni presidenziali negli USA sono state decise da circa 100mila voti.

Cosa accadrebbe se questo tipo di messaggio fosse veicolato allo scopo di far ricadere la scelta di voto su un candidato piuttosto che un altro? Riflettere a fondo su tale tema permette di comprendere il potere delle architetture persuasive alla base della tecnologia che usiamo tutti i giorni.

Perché Facebook deve sapere tutto di noi?

Quanti dati raccoglie ogni giorno Facebook? Oltre alle informazioni personali sugli utenti, anche tutti gli aggiornamenti (pubblicati o cancellati), tutte le conversazioni private, tutti i posti in cui ci registriamo, tutte le foto che aggiungiamo ai nostri album o in cui siamo taggati, tutti i siti che visitiamo quando siamo loggati e non solo. Tutti. Nostri e di tutte le persone che nel mondo hanno un profilo Facebook: oltre due miliardi. Senza calcolare gli utenti di WhatsApp, Messenger e Instagram – sempre di proprietà di Mark Zuckerberg – che fanno crescere il dato a quota 5,1 miliardi di utenti (nel 2017). Eppure Facebook non si accontenta e vuole sapere sempre più cose della nostra vita, anche offline, perciò acquista dati sui cittadini americani raccolti da aziende terze (l’Europa ha regole più restrittive in materia, per ora).

L’algoritmo di Facebook è in grado di raccogliere una tale mole di informazioni umanamente difficile anche da immaginare, figuriamoci da gestire.

Perché Facebook deve sapere tutto di noi? Perché più dati ha, meglio funziona. Gli algoritmi ‘machine learning’, o ‘algoritmi di apprendimento’, sono così chiamati perché ‘apprendono’ le caratteristiche delle persone a partire dai dati esistenti e le traspongono su nuove persone con caratteristiche simili. È così possibile definire audience specifiche a cui mostrare determinati contenuti. Pubblicità di borse griffate, offerte di viaggi, proposte di auto da sogno: finché si tratta di un palese contenuto promozionale è possibile ignorarlo senza procedere all’acquisto; ma il problema non è questo, come non è questo il motivo per cui oggi si grida allo scandalo.

“La tecnologia non è né buona né cattiva: e non è neanche neutrale.” – Melvin Kranzberg

Lo studioso americano di storia della tecnologia Melvin Kranzberg ha spiegato che gli sviluppi tecnologici vanno ben oltre gli scopi immediati per cui determinati strumenti sono creati: una stessa tecnologia può portare a risultati del tutto differenti se utilizzata in circostanze o contesti diversi.

La distopia di Facebook

Cambridge Analytica non usava i dati raccolti per mostrare pubblicità, ma per influenzare il comportamento politico. E se un’azienda privata è riuscita nel suo scopo, pensiamo a cosa potrebbe fare uno stato nazionale se entrasse in possesso dell’immensa quantità di dati che ha Facebook sui cittadini. Ci troveremmo di fronte a una forma di autoritarismo in grado di gestire le nostre vite senza una manipolazione evidente.

È diverso dal controllo totalitario immaginato da Orwell in ‘1984’, perché non userebbe meccanismi altrettanto evidenti. Si tratterebbe piuttosto di una persuasione sottile che fa leva su debolezze e vulnerabilità personali per indurre determinati comportamenti. Ciò avverrebbe su larga scala, mediante dispositivi che utilizziamo tutti i giorni e con contenuti creati apposta per noi. Allora questa forma di autoritarismo sarebbe ancora più pericolosa, perché se le persone non se ne accorgono non si mobilitano per debellarla.

L’algoritmo creato per permettere alla pubblicità di seguirci nei nostri percorsi online è in grado di fare molte più cose, che neanche immaginiamo. Ciò che dobbiamo temere non è cosa l’intelligenza artificiale possa fare di per sé, ma come possa essere utilizzata per controllarci e manipolarci in modi sempre nuovi, talvolta nascosti, sottili e inaspettati. Non dobbiamo dimenticare che questa tecnologia viene sviluppata e perfezionata da aziende private, come appunto Facebook, Google, Amazon e simili, che guadagnano raccogliendo e rivendendo i nostri dati e la nostra attenzione agli inserzionisti. Certo, siamo noi che ‘accettiamo’ le condizioni e che decidiamo di essere profilati, ma qual è l’alternativa? Non usare più i social non basta, non dovremmo usare neanche Google, Amazon, Apple e neanche il cellulare, le carte di credito e tanti altri servizi digitali. Questa è l’alternativa.

Grazie all’eco mediatica del caso Cambridge Analytica sono molte le persone che si sono indignate. Ma per ora, i discorsi sulla violazione della privacy, le denunce ai grandi strateghi della sorveglianza e le accuse di manipolazione non si sono trasformate in una preoccupazione condivisa dai più, né tantomeno in azioni legali concrete a tutela dei cittadini.

Per ottenere un reale cambiamento nella gestione di dati, che appartengono prima di tutto a noi, sono necessari, innanzitutto, una consapevolezza realmente diffusa e un impegno forte e condiviso nel richiedere trasparenza circa il funzionamento degli algoritmi proprietari. Dobbiamo pretendere di vincolare l’intelligenza artificiale ai valori umani, non economici o politici. Non è facile, ma è necessario.

Punti di vista

E tu cosa ne pensi?