Filter bubble: ci condiziona (e quanto) il filtro che abbiamo davanti i nostri occhi?

– Dalla rubrica di Daniele Giussani, “Senza guardare indietro” –

Vi sarete accorti di come gran parte dei post che scorrete su Facebook vengano proposti secondo la formula “Suggerita per te”. Vi sarà capitato, ogni tanto, di soffermarvi su quel video o su quella foto perché vi suonava familiare. Sembrava fatto proprio su misura per voi. Vi sarà anche capitato di chiedervi – con indiscutibile sicurezza – dove fosse il trucco. Tralasciando il piccolo dettaglio che nel lungo periodo, fin troppo spesso, quel video o quella foto con voi avevano a che fare ben poco, sono sicuro che avete trovato la risposta da soli. Così, a me, non resta che metterla in chiaro.

Suggeriti per voi

A scegliere gli argomenti che potrebbero interessarci sono le istruzioni inserite all’interno di un algoritmo, ovvero una sequenza di operazioni che ci convogliano verso un risultato stabilito: in questo caso la comparsa di informazioni mentre facciamo ricerche online, o quando scorriamo con la mano il nostro feed di notizie sui social. Gli algoritmi dovrebbero offrirci la migliore risposta su ciò che sanno di noi, dei nostri comportamenti, degli indizi che lasciamo durante i nostri percorsi in Rete. Succede sia per i social network che per i motori di ricerca.

I social network e i motori di ricerca sono il filtro attraverso il quale esploriamo il nostro mondo fatto di parenti, amici e conoscenze. Ma anche di ricerca, lavoro, svago e tempo libero. E l’elenco può continuare, interminabile. Se interminabile è la somma degli aggiornamenti che i vari blog, le persone e le pagine che seguiamo decidono di pubblicare. “La speranza e l’obiettivo – come dice Tom Alison, VP of Engineering di Facebook – è di far incontrare alla persona il contenuto che davvero gli interessa”. Forse più speranza che obiettivo. 

Dalla generalità alla personalizzazione

In principio la Rete era totalmente pubblica, chiunque poteva avere accesso alle stesse informazioni. I risultati offerti dai motori di ricerca erano uguali per tutti. Oggi invece le nostre ricerche rispondono a una serie di parametri più disparati, che dipendono da informazioni molto diverse tra di loro. Ve ne elenco alcuni: posizione geografica, cronologia inserita nel browser, ricerche effettuate. I social network e i motori di ricerca ci propongono contenuti a misura dei nostri comportamenti in Rete. Cento per cento personalizzati. Non abbiamo più accesso a tutto ciò che viene pubblicato ma solo alle informazioni che l’algoritmo “intuisce” essere importanti per noi.

Partiamo dal presupposto che la personalizzazione nasce come soluzione al problema dell’eccessiva diffusione di informazioni. L’aumento di domanda e offerta di informazione porta un inevitabile cambio di paradigma, poiché l’assordante rumore di fondo di un eccesso di notizie peggiora considerevolmente la qualità dell’ecosistema informativo. La gestione del modello avviene attraverso dei filtri che selezionano ciò che giusto vedere – come già sappiamo – grazie alle intuizioni di un algoritmo. L’ago della bilancia che determina quali contenuti devono raggiungerci sugli schermi del nostro computer e del nostro smartphone. 

Filtri che a detta dell’autore e attivista di Internet Eli Parisier hanno un possibile effetto collaterale, quello di “creare un mondo costituito solo da ciò che ci è familiare, un mondo in cui non c’è nulla da imparare, in cui c’è un’invisibile autopropaganda che ci indottrina con le nostre stesse idee”. Isolare la nostra persona all’interno di gruppi con sole persone simili a noi e con le nostre medesime idee rischia di far scomparire il “contrasto socio-culturale” dal nostro panorama collettivo, vedendo di conseguenza ristretto il diverso campo informativo proposto dai mezzi di comunicazione.

La bolla è davvero un pericolo?

Il concetto estremizzato della “Filter Bubble” descrive l’idea che gli utenti potrebbero essere intrappolati in un circolo vizioso di opinioni invariabili, senza mai essere spinti a scoprire nuovi concetti o punti di vista alternativi. In questo modo rischiamo di credere pedissequamente alle  informazioni che circolano nelle nostre bolle, arrivando ad accettare solo informazioni che si arrangiano alle nostre opinioni, senza considerare di basare le stesse su prove che circolano al di fuori dei nostri confini. 

Il meccanismo sembra essere dei più semplici e micidiali: le convinzioni vengono amplificate e rafforzate all’interno di un sistema isolato simile alle “echo chamber” (camere dell’eco) dove il confronto avviene solo con voci identiche alla mia, rafforzando di conseguenza il bias di conferma, ovvero il convincimento che la mia voce sia la verità. Un meccanismo che ci spinge verso la polarizzazione politica e sociale, come spiega bene la ricerca effettuata dal ricercatore italiano Walter Quattrociocchi.

Quando elaborano informazioni, le persone sembrano muoversi all’interno di preconcetti, cercando di confermare ciò che già sanno e fingendo di non conoscere i pareri contrastanti. Una tendenza che gli esperti definiscono “pregiudizio di conferma”. Quattrociocchi afferma: “più le persone sono radicate verso determinate idee e opinioni, più sono circondate da persone che condividono la loro stessa concezione del mondo”. Parisier e Quattrociocchi non sono stati gli unici a preoccuparsi di questo fenomeno, anche altri hanno portato avanti studi e teorie, alimentando ipotesi sul fatto che la bolla possa arrivare anche a danneggiare democrazia e prosperità, innescando senza mezzi termini gli effetti della disinformazione. 

Chi invece abbraccia punti di vista differenti – sminuendo di netto l’effetto della bolla, la quale risulterebbe un problema irrilevante e affrontabile – è la stessa Facebook Inc. (non poteva essere diversamente). Attraverso uno studio pubblicato nel 2015 sgonfia le apprensioni della “filter bubble”, sostenendo che la polarizzazione delle proprie convinzioni e l’emarginazione con i propri simili non deriva dagli algoritmi ma piuttosto dalle scelte incondizionate compiute dalle persone. A quanto pare il nostro cervello condiziona le scelte sulla base di ciò che riconosciamo aver già visto o vissuto attraverso comportamenti passati. Ipotesi, quella di Facebook, che rimane plausibile. 

Scoppiare la bolla (e gli estremismi tecnologici)

L’idea che i filtri possano suggestionare a tal punto una persona istruita e curiosa e trasformarla in un individuo non pensante – o addirittura spogliarlo totalmente del suo spirito critico – è figlia del determinismo tecnologico. Come allo stesso modo credere che la tecnologia salverà il mondo – e niente sarà più come prima quando avremo trasformato tutti gli esseri umani in cyborg perfetti – è figlia di un eccessiva esaltazione tecnologica.

In questo contesto che sembra di assoluta incertezza – lo dico per i distratti – c’è in realtà un assioma da cui partire: la tecnologia è semplicemente uno strumento e in quanto tale dipende dall’uso che decideremo di farne. Possiamo quindi iniziare a prendere atto della realtà, rendendoci conto che davvero può esserci un filtro che smorza i colori tra noi e il nostro mondo. Ci sei finito dentro? Può darsi. Allora scoppiare la bolla è abbastanza semplice, se vuoi farlo. Se non ci riesci, però, non prendertela con la bolla.

Collegati con Daniele Giussani su LinkedIn.