Algoritmi che opprimono gli ultimi
Conoscere i rischi che i social pongono alla democrazia e alla tutela dei più deboli è il primo passo per proteggerli e proteggerci
Una delle cose più sorprendenti delle fake-news è che si diffondono sei volte più in fretta delle informazioni attendibili. Ciò avviene perché hanno contenuti spesso elaborati per generare ansia e dipingere la realtà in modo semplificato, dando l’impressione che ci sia sempre un “noi” (i buoni) contro “loro” (i cattivi). La scorsa settimana abbiamo anticipato che ci saremmo occupati dei reali costi sociali delle fake-news. Per capire che cosa intendiamo bisogna partire dal modo in cui gli algoritmi sfruttano le nostre emozioni e, in particolare, la rabbia.
Dal numero di Notizie del 14 Marzo, parte 5 di 6.
di Alessandro Cattini
Una rabbia contagiosa
Il Center for Humane Technology avverte che la rabbia è l’emozione che viaggia più velocemente e più lontano sui social media. Per questo chi mette in giro fake news ne fa incetta: suscitare rabbia e polarizzazione online è il modo più efficace per ottenere il massimo scompiglio al minimo costo. Basta una piccola scintilla piazzata nel punto giusto perché tutto il sistema precipiti come un domino verso il caos. Sono gli utenti stessi, avviluppati nei circoli viziosi “risucchia-attenzione” dei social, a generare altre reazioni rabbiose necessarie ad alimentare il fuoco.
Un esempio? Ogni parola di sdegno aggiunta a un tweet incrementa del 17% le probabilità che questo venga ricondiviso (come sempre maggiori dettagli sui dati riportati in questo articolo sono reperibili sul sito ledger. humanetech.com). Sono proprio gli utenti, tuttavia, a pagare i costi di un’informazione inquinata, mistificatrice e polarizzante. Due fra i peggiori effetti di questo fenomeno sono l’indebolimento della democrazia e l’aggravamento dell’oppressione verso le minoranze.
Rischi per la democrazia
Data la pervasività della tecnologia nelle nostre vite non è più possibile definire “collaterale” il danno provocato dalla violenza perpetrata negli ambienti virtuali. Le piattaforme, infatti, ormai dirottano i propri utenti in modo sistematico verso i contenuti più aggressivi perché generano più “engagement”.
Ma gli algoritmi non agiscono nell’ignoranza dei loro creatori. Il Wall Street Journal ha riportato che Facebook sapeva già nel 2016 che il 64% delle persone che si univano a gruppi estremisti lo facevano a causa del proprio sistema di raccomandazione automatica (cioè quello che suggerisce all’utente pagine o gruppi che potrebbero piacergli).
È provato che anche su Youtube si assiste allo stesso fenomeno di “scivolamento” degli utenti verso contenuti politicamente sempre più estremi. Alcuni studi hanno poi mostrato che solo modificando l’ordine in cui compaiono i risultati di una ricerca Google su un’elezione politica si può manipolare l’opinione di più del 20% degli elettori indecisi.
Queste emozioni e credenze artificiosamente indotte possono avere effetti a lungo termine. Uno studio della Knight Foundation ha rilevato che le fake news legate alle elezioni USA del 2016 circolavano ancora nel 2018 nella top 10 delle news di Twitter. La persistenza di questi contenuti falsi può fungere così da propellente per forme di populismo e intolleranza che finiscono per sedimentarsi nella coscienza collettiva.
Discriminazione algoritmica
La propagazione dell’odio online tocca anche le singole persone e i gruppi più deboli, per via della capacità dell’online di amplificare soprattutto razzismo, sessismo, abilismo e omofobia.
Anche se su tali questioni la società sta facendo passi avanti, spesso l’opinione pubblica è distorta dai social network, dove la maggioranza dei post veicola contenuti spesso discriminatori e violenti (esempio: a giugno 2020 più del 70% dei post riguardanti Black Lives Matter erano avversi a questo movimento, anche se le statistiche del Pew Research Center mostravano che il 67% degli americani adulti simpatizzava per esso). Alcuni atteggiamenti discriminatori sono poi divenuti parte integrante delle politiche aziendali dei social e, talvolta, persino dei loro algoritmi. Da un lato, l’anno scorso The Intercept ha riportato che i moderatori dei contenuti di TikTok venivano invitati a censurare utenti i cui corpi non riflettevano certi canoni di bellezza. Dall’altro, un’indagine del 2015 ha evidenziato che, a fronte della ricerca “CEO”, Google restituiva solo l’11% di immagini di donne, anche se le donne sono almeno il 27% di coloro che ricoprono quel ruolo aziendale.
Infine si è osservato che le intelligenze artificiali e i motori di ricerca tendono a replicare gli stereotipi quando devono completare frasi autonomamente. Negli USA, per esempio, associano quasi sempre la parola “African” a “poor” o la parola “arrest” ai nomi propri più frequenti fra le persone di colore. Ci fu un periodo, inoltre, in cui locuzioni innocenti come “black girls” venivano subito collegate da Google a contenuti pornografi ci, a causa delle enormi somme di denaro investite dal settore per far apparire i propri contenuti fra i primi risultati delle ricerche, veicolando così stereotipi femminili degradanti.
Esercizi di compassione online
Per quanto ci si impegni a non diffondere contenuti polarizzanti, aggressivi, discriminatori e violenti può capitare di incappare in quelli condivisi da altre persone. In tal caso è importante fermarsi e ricordare che dall’altra parte dello schermo potrebbe esserci una persona in carne e ossa, alla quale è sempre e comunque dovuto il massimo rispetto proprio e solo in quanto essere umano.
Da un lato è possibile segnalare il contenuto alla piattaforma come inappropriato: a volte è meglio agire così, invece che iniziare un’infinita discussione. Dall’altro, prima di replicare con rabbia, è sempre opportuno fare un respiro e attingere alla propria riserva di compassione. Ci si può chiedere: perché si dovrebbe voler scrivere qualcosa del genere sui social? Che cosa spinge una persona a comportarsi in questo modo? Un messaggio privato, che ne chieda ragione con il genuino desiderio di ascoltare le motivazioni dell’altro, può essere talvolta un buon primo passo.
Il Center for Humane Technology sottolinea che la compassione è una delle risorse più preziose cui ricorrere negli ambienti online, e come tale va coltivata e custodita. Per averne una buona riserva è necessario esercitare innanzitutto la gratitudine per la bellezza. Iniziare a farlo anche sui social può voler dire focalizzarsi sui post positivi condivisi dagli altri, magari catturandoli con uno screenshot. Sarà il promemoria che è sempre possibile avere fiducia nell’umanità, anche nei momenti più difficili.
Continua…
Leggi ora la parte 6: Disconnettersi per riavviare l’immaginazione.
Ritorna alla parte 4: Fake-news: come proteggersi?