Come YouTube ha costruito una macchina per la radicalizzazione per l'estrema destra

Tecnico


Come YouTube ha costruito una macchina per la radicalizzazione per l'estrema destra

Per David Sherratt, come tanti adolescenti, la radicalizzazione dell'estrema destra è iniziata con i tutorial sui videogiochi su YouTube. Aveva 15 anni ed era vagamente liberale, interessato principalmente alle clip di 'Call of Duty'. Quindi i consigli di YouTube lo hanno portato altrove.

'Mentre continuavo a guardare, ho iniziato a vedere cose come la comunità atea online', ha detto Sherratt, 'che poi è diventata una porta d'ingresso alla guerra civile della comunità atea sul femminismo'. A causa di una vasta sottocultura di atei di YouTube che si opponevano al femminismo, 'Penso di essere caduto in quella tana del coniglio molto più velocemente', ha detto.


Durante quel viaggio di quattro anni nella tana del coniglio, l'adolescente ha fatto notizia per il suo coinvolgimento nel movimento per i diritti degli uomini, un'ideologia marginale che crede che gli uomini siano oppressi dalle donne e che non sostiene più. Ha realizzato video con un importante YouTuber ora amato dall'estrema destra.

Ha partecipato alla proiezione di un documentario sul movimento per i 'diritti degli uomini' e in seguito è uscito con altri YouTuber, dove ha incontrato un giovane che sembrava 'un po' fuori di testa', ha detto Sherratt. Tuttavia, non ci ha pensato molto e ha finito per posare per una foto di gruppo con l'uomo e altri YouTuber. Alcuni degli amici di Sherratt hanno persino stretto un rapporto con l'uomo online in seguito, il che ha spinto Sherratt a dare un'occhiata al suo canale YouTube.

Quello che ha trovato ha inasprito la sua visione della proiezione del documentario. Il canale del giovane era pieno di contenuti sulla negazione dell'Olocausto.

'Avevo incontrato un neonazista e non lo sapevo nemmeno', ha detto Sherratt


L'incontro faceva parte del suo disincanto nei confronti del mondo politico di estrema destra in cui era lentamente entrato alla fine della sua infanzia.

“Penso che una delle cose reali che ha reso così difficile uscire e rendermi conto di quanto fossi diventato radicale in certe aree fosse il fatto che in molti modi, le persone di estrema destra si fanno sembrare meno di estrema destra; più moderato o più di sinistra', ha detto Sherratt.

Sherratt non era solo. Negli ultimi anni YouTube è diventato un tranquillo centro di radicalizzazione politica, alimentato da un algoritmo che secondo un ex dipendente suggerisce contenuti sempre più marginali. E gli YouTuber di estrema destra hanno imparato a sfruttare quell'algoritmo e ad atterrare i loro video in alto nelle raccomandazioni sui video meno estremi. The Daily Beast ha parlato con tre uomini le cui abitudini su YouTube li hanno spinti verso una strada di estrema destra e che da allora si sono disconnessi dall'odio.

Frange di design

YouTube ha un numero enorme di visualizzazioni, con quasi 2 miliardi di utenti giornalieri, molti dei quali giovani. Il sito è più popolare tra gli adolescenti di Facebook e Twitter. Uno studio Pew 2018 ha scoperto che l'85% degli adolescenti statunitensi utilizza YouTube, il che la rende di gran lunga la piattaforma online più popolare per gli under 20. (Facebook e Twitter, che hanno affrontato l'ira normativa per i contenuti estremisti, sono popolari rispettivamente tra il 51 e il 32% degli adolescenti.)


Lanciato nel 2005, YouTube è stato rapidamente acquisito da Google. Il gigante della tecnologia ha cercato di massimizzare i profitti facendo in modo che gli utenti guardassero i video. La società ha assunto ingegneri per creare un algoritmo che consigliasse nuovi video prima che un utente avesse finito di guardare il video corrente.

L'ex ingegnere di YouTube Guillaume Chaslot è stato assunto da un team che ha progettato l'algoritmo nel 2010.

“La gente pensa che stia suggerendo la cosa più rilevante, questa cosa che è molto specializzata per te. Non è così', ha detto Chaslot a The Daily Beast, aggiungendo che l'algoritmo 'ottimizza per il tempo di visualizzazione', non per la pertinenza.

'L'obiettivo dell'algoritmo è davvero quello di tenerti in linea il più a lungo', ha detto.


'L'obiettivo dell'algoritmo è davvero quello di tenerti in linea il più a lungo.'— l'ex ingegnere di YouTube Guillaume Chaslot

Questa fissazione sul tempo di visualizzazione può essere banale o pericolosa, ha affermato Becca Lewis, ricercatrice dell'organizzazione no profit di ricerca tecnologica Data & Society. 'In termini di modello di business di YouTube e tentativi di mantenere gli utenti coinvolti sui loro contenuti, ha senso ciò che vediamo fare dagli algoritmi', ha affermato Lewis. 'Quel comportamento algoritmico è fantastico se stai cercando truccatori e guardi il contenuto di una persona e vuoi un sacco di consigli di altre persone su come fare il tuo ombretto. Ma diventa molto più problematico quando si parla di contenuti politici ed estremisti'.

Chaslot ha detto che allora gli era chiaro che l'algoritmo poteva aiutare a rafforzare le credenze marginali.

'Mi sono reso conto molto velocemente che la raccomandazione di YouTube stava mettendo le persone in bolle di filtro', ha detto Chaslot. “Non c'era via d'uscita. Se a una persona piacevano le cospirazioni di Flat Earth, per il tempo di visualizzazione era negativo consigliare video anti-Flat Earth, quindi non li raccomanderebbe nemmeno.

Lewis e altri ricercatori hanno notato che i video consigliati tendono spesso ai margini. scrivendo per Il New York Times , il sociologo Zeynep Tufekci ha osservato che i video di Donald Trump raccomandavano video 'che presentavano invettive dei suprematisti bianchi, negazioni dell'Olocausto e altri contenuti inquietanti'.

Matt, un ex di destra che ha chiesto di nascondere il suo nome, è stato personalmente intrappolato in una tale bolla di filtro.

Ad esempio, ha descritto di aver guardato un video di Bill Maher e Ben Affleck che discutevano dell'Islam e di aver visto consigliato un video più estremo sull'Islam dal dipendente di Infowars e teorico della cospirazione Paul Joseph Watson. Quel video ha portato al video successivo e al successivo.

'Approfondisci il canale [di Watson] e inizia a trovare le sue cose anti-immigrazione che spesso a loro volta portano le persone a diventare più simpatizzanti della politica etno-nazionalista', ha detto Matt.

'Questo mi ha indirettamente indirizzato verso un percorso per spostarmi molto più a destra politicamente in quanto mi ha portato a scoprire altre persone con opinioni di estrema destra simili'.

Ora ventenne, Matt da allora è uscito dall'ideologia e ha costruito una presenza anonima su Internet in cui discute con i suoi ex fratelli a destra.

'Penso che YouTube abbia sicuramente avuto un ruolo nel mio passaggio a destra perché attraverso i consigli che ho ricevuto', ha detto, 'mi ha portato a scoprire altri contenuti che erano molto a destra del centro, e questo è solo peggiorato progressivamente nel tempo, portandomi a scoprire contenuti più sinistri”.

Questa opposizione al femminismo e ai movimenti per l'uguaglianza razziale fa parte di un movimento di YouTube che si descrive come 'giustizia antisociale'.

'Penso che la roba anti-SJW piaccia ai giovani ragazzi bianchi che sentono di perdere il loro status per mancanza di un termine migliore.'— Andrew, un ex suprematista bianco

Andrew, che ha anche chiesto di nascondere il suo cognome, è un ex suprematista bianco che da allora ha rinunciato al movimento. In questi giorni, scrive blog su argomenti che l'estrema destra vede come un anatema: giustizia razziale, uguaglianza di genere e, una delle sue passioni personali, la comunità pelosa. Ma l'interesse per i videogiochi e la cultura online è stata una costante nel suo ultimo decennio di evoluzione ideologica. Quando Andrew aveva 20 anni, ha detto, è diventato simpatizzante del nazionalismo bianco dopo aver assorbito i punti di discussione del movimento su un forum non correlato.

La cultura del gioco su YouTube lo ha portato sulla strada dell'estrema destra. Nel 2014, una coalizione di troll e di destra ha lanciato Gamergate, una campagna di molestie contro le persone che secondo loro cercavano di promuovere cause femministe o di 'giustizia sociale' nei videogiochi. Il movimento ha avuto una grande presenza su YouTube, dove ha convinto alcuni giocatori (in particolare i giovani) che i loro videogiochi erano sotto attacco.

'Ha creato una minaccia a qualcosa su cui le persone attribuiscono un valore smisurato', ha detto Andrew. “Gli 'SJW' [guerrieri della giustizia sociale] non sono mai stati una minaccia per i videogiochi. Ma se si potesse far credere alle persone che lo fossero', allora erano suscettibili di ulteriori e più selvagge affermazioni su questi nuovi nemici a sinistra.

Matt ha descritto i sentimenti di perdita alimentati da YouTube come un mezzo per radicalizzare i giovani uomini.

'Penso che la roba anti-SJW piaccia ai giovani ragazzi bianchi che si sentono come se stessero perdendo il loro status per mancanza di un termine migliore', ha detto. 'Vedono che le minoranze stanno sostenendo i propri diritti e questo li mette a disagio, quindi cercano di combatterlo'.

Mentre era nella comunità di estrema destra, Andrew ha visto i contenuti antifemministi fungere da gateway per video più estremi.

'La falsa idea che le cause della giustizia sociale abbiano una sorta di nefasto secondo motivo, che stiano distorcendo la verità in qualche modo' può aiutare ad aprire gli spettatori a cause più estreme, ha detto. 'Una volta che hai convinto qualcuno a crederci, puoi effettivamente arrivare alla supremazia bianca abbastanza rapidamente'.

Lewis ha identificato la comunità come uno dei numerosi percorsi di radicalizzazione “che possono iniziare da una prospettiva conservatrice tradizionale: non apertamente razzista o sessista, ma focalizzata sulla critica del femminismo, concentrandosi sulla critica di Black Lives Matter. Da lì è davvero facile accedere a contenuti apertamente razzisti e apertamente sessisti'.

Chaslot, l'ex ingegnere di YouTube, ha affermato di aver suggerito alla società di consentire agli utenti di disattivare l'algoritmo di raccomandazione, ma afferma che Google non era interessato.

L'amministratore delegato di Google, Sundar Pichai, ha aderito formalmente al problema durante un'audizione al Congresso la scorsa settimana. Interrogato su una teoria della cospirazione particolarmente dannosa su Hillary Clinton che appare in alto nelle ricerche di video non correlati, il CEO non ha promesso di agire.

'È un'area in cui riconosciamo che c'è molto lavoro da fare e continueremo sicuramente a farlo', ha detto Pichai. “Ma voglio riconoscere che c'è ancora molto lavoro da fare. Con la nostra crescita derivano maggiori responsabilità. E ci impegniamo a fare meglio mentre investiamo di più in questo settore'.

Ma mentre YouTube pensa a una soluzione, le persone si fanno male.

Svolta tutta a destra

Il 4 dicembre 2016, Edgar Welch ha sparato con un fucile AR-15 in una famosa pizzeria di Washington, DC. Welch credeva che i Democratici stessero conducendo il traffico sessuale di minori attraverso il seminterrato della pizzeria, una teoria della cospirazione chiamata 'Pizzagate'.

Come molte moderne teorie del complotto, Pizzagate ha proliferato su YouTube e quei video sembravano influenzare Welch, che li ha inviati ad altri. Tre giorni prima della sparatoria, Welch ha scritto a un amico della cospirazione. 'Guarda 'PIZZAGATE: il quadro più ampio' su YouTube', scrisse .

Altre teorie del complotto alimentate da YouTube hanno similmente provocato minacce di violenza armata. Un uomo che è stato pesantemente coinvolto nelle comunità di teorie del complotto su YouTube presumibilmente minacciato un massacro nella sede di YouTube quest'estate, dopo essere arrivato a credere a un'altra teoria del complotto sulla censura video. Un altro uomo che credeva che la teoria QAnon alimentata da YouTube portasse a stallo armato alla diga di Hoover nel mese di giugno. Un neonazista arrestato con una scorta di armi la scorsa settimana gestiva un canale YouTube dove ha parlato di uccidere gli ebrei.

“I giovani sono più suscettibili di avere i loro ideali politici modellati. Questo è il momento della tua vita in cui stai cercando di capire chi sei e quali sono le tue politiche.'— la ricercatrice tecnologica Becca Lewis

Anche gli estremisti religiosi hanno trovato casa su YouTube. Da marzo a giugno 2018, le persone hanno caricato 1.348 video dell'ISIS sulla piattaforma, secondo uno studio del Progetto contro l'estremismo . YouTube ha eliminato il 76% di quei video entro due ore dal caricamento, ma la maggior parte degli account è rimasta online. Il religioso musulmano-americano radicale Anwar al-Awlaki radicalizzato più aspiranti terroristi e i suoi sermoni erano popolari su YouTube.

Gli attori meno esplicitamente violenti possono anche radicalizzare gli spettatori sfruttando l'algoritmo di YouTube.

'Gli YouTube sono estremamente esperti di SEO informale [ottimizzazione per i motori di ricerca]', ha affermato Lewis di Data & Society. 'Codificheranno i loro contenuti con determinate parole chiave che sospettano che le persone stiano cercando'.

Chaslot ha descritto un popolare formato di titolo di YouTube che si adatta bene all'algoritmo e alle emozioni degli spettatori. 'Parole chiave come 'A distrugge B' o 'A umilia B'' possono 'sfruttare l'algoritmo e le vulnerabilità umane'. I video conservatori, come quelli con la personalità di destra Ben Shapiro o il fondatore dei Proud Boys Gavin McInnes, utilizzano spesso questo formato.

Alcuni utenti marginali cercano di proliferare le loro visualizzazioni facendole apparire nei risultati di ricerca per i video meno estremi.

'Un utente moderato avrà determinati punti di discussione', ha detto Sherratt. “Ma quelli radicali, perché cercano sempre di infiltrarsi, e rubano abbonati e spettatori da quelle posizioni più moderate, inseriranno tutti gli stessi identici tag, ma con alcuni in più. Quindi non sarà solo 'crisi dei migranti' e 'Islam', sarà 'crisi dei migranti', 'Islam' e 'morte dell'Occidente'.

'Potresti guardare i video più moderati e i video estremi saranno in quella casella [raccomandazione] perché non c'è alcun concetto all'interno della sfera della giustizia antisociale che l'estrema destra non sia disposta a usare come strumento per co -opta quella sfera.”

Ascolto vulnerabile

I giovani, in particolare quelli senza convinzioni politiche pienamente formate, possono essere facilmente influenzati dai video estremi che appaiono nei loro consigli. 'YouTube fa appello a una fascia demografica così giovane', ha detto Lewis. “I giovani sono più suscettibili di avere i loro ideali politici modellati. Questo è il momento della tua vita in cui stai cercando di capire chi sei e qual è la tua politica'.

Ma YouTube non ha ricevuto la stessa attenzione di Facebook e Twitter, che sono più popolari tra gli adulti. Durante la testimonianza al Congresso di Pichai del martedì, i membri del Congresso hanno trovato il tempo per chiedere al CEO di Google degli iPhone (un prodotto che Google non produce), ma ha posto alcune domande sui contenuti estremisti.

La testimonianza di Pichai è arrivata due giorni dopo PewDiePie , l'utente più popolare di YouTube, ha consigliato un canale che pubblica video nazionalisti e antisemiti bianchi. PewDiePie (vero nome Felix Kjellberg) ha più di 75 milioni di abbonati, molti dei quali sono giovani. Kjellberg è stato precedentemente accusato di fanatismo, dopo aver pubblicato almeno nove video con immagini antisemite o naziste. In un'acrobazia del gennaio 2017, ha assunto persone per tenere un cartello 'morte a tutti gli ebrei' davanti alla telecamera.

Alcuni YouTuber popolari nella comunità meno estrema contro la giustizia sociale sono diventati più apertamente sessisti e razzisti tra la fine del 2016 e l'inizio del 2017, una tendenza che alcuni spettatori potrebbero non notare.

'La retorica ha iniziato a spostarsi molto più a destra e la finestra di Overton si stava muovendo', ha detto Sherratt. 'Un minuto era 'siamo liberali e pensiamo solo che questi tipi di giustizia sociale siano troppo estremi o vadano troppo lontano nelle loro tattiche' e poi sei mesi dopo si è trasformato in 'il progressismo è un'ideologia malvagia''.

Uno dei canali YouTube preferiti di Matt 'è iniziato come un canale tecnologico a cui non piacevano le femministe e ora realizza video in cui quasi tutto è una cospirazione marxista per lui', ha detto.

'Puoi vietare ancora e ancora, ma cambieranno il discorso.' — Chaslot, l'ex ingegnere di YouTube

In alcuni casi, i video di YouTube possono sostituire le precedenti fonti di informazioni di una persona. Gli YouTuber complottisti spesso scoraggiano gli spettatori dal guardare o leggere altre fonti di notizie, Chaslot ha già notato . La tendenza è positiva per i teorici della cospirazione e per i profitti di YouTube; gli spettatori diventano più convinti delle teorie del complotto e consumano più pubblicità su YouTube.

Il problema si estende ai giovani spettatori di YouTube, che potrebbero seguire religiosamente il loro canale preferito, ma non leggere i notiziari più convenzionali.

'È dove le persone ottengono le loro informazioni sul mondo e sulla politica', ha detto Lewis. “A volte invece di andare alle fonti di notizie tradizionali, le persone guardano semplicemente il contenuto di un influencer che gli piace, che ha determinate opinioni politiche. I bambini potrebbero avere un'esperienza molto diversa da YouTube rispetto a quella che i loro genitori si aspettano, che sia estremista o meno. Penso che YouTube abbia il potere di plasmare le ideologie delle persone più di quanto le persone gli attribuiscano'.

Alcuni attivisti hanno chiesto a YouTube di vietare i video estremi. La società ribatte spesso che è difficile vagliare le 300 ore di video caricate segnalate ogni minuto. Anche Chaslot si è detto scettico sull'efficacia dei divieti.

“Puoi vietare ancora e ancora, ma cambieranno il discorso. Sono molto bravi a rimanere sotto la linea dell'accettabile', ha detto. Ha indicato i video che chiedono al donatore democratico George Soros e ad altri importanti democratici di essere ''i primi ad essere calati all'inferno''. 'Il video ha spiegato perché non meritano di vivere e non dice esplicitamente di ucciderli, ” quindi elude le regole contro i contenuti violenti.

Allo stesso tempo “porta a una sorta di mentalità terroristica” e si manifesta nelle raccomandazioni.

'Ovunque tu metta la linea, le persone troveranno un modo per stare dall'altra parte', ha detto Chaslot.

'Non è un problema di moderazione dei contenuti, è un problema di algoritmo'.