Info Interventions
: una serie di approcci, aggiornati in base a ricerche di scienze comportamentali e convalidati da esperimenti digitali, per sviluppare la resilienza ai danni online.
Richieste di accuratezza
Rifocalizzare l'attenzione dell'utente verso l'accuratezzaIpotesi
Come funziona
-
1
1. La persona scorre il proprio feed social e si imbatte in contenuti potenzialmente disinformativi.
-
2
2. Viene attivata una richiesta di accuratezza che compare sopra il contenuto.
-
3
3. Alla persona viene fornita una breve spiegazione del motivo per cui vede il promemoria e la sua attenzione viene spostata sull'accuratezza del contenuto con suggerimenti sull'alfabetizzazione informativa.
-
4
4. La persona è ora invogliata a essere più consapevole e potrebbe pensarci due volte quando si imbatte in contenuti simili nel proprio feed.
Risultati
-
50%
Nel 50% dei casi, coloro che hanno ricevuto suggerimenti sull'accuratezza sono stati più accorti nel modo di condividere le informazioni rispetto a chi non li ha ricevuti (fonte: Jigsaw)
-
11%
I video pre-roll su YouTube hanno registrato un aumento della fiducia fino all'11%, tre settimane dopo l'esposizione (fonte: Jigsaw)
Esempi
Sono stati condotti sondaggi online in 16 paesi con oltre 30.000 partecipanti a cui è stato chiesto di valutare la propria inclinazione a condividere titoli di notizie vere e false.
The Redirect Method
Interrompere la radicalizzazione onlineIpotesi
Come funziona
-
1
1. La persona completa una ricerca online utilizzando parole chiave che implicano un interesse per la propaganda estremista.
-
2
2. Viene avviato The Redirect Method, che richiede un intervento sulla base della parola chiave rilevata.
-
3
3. Alla persona viene presentato un annuncio con maggiori informazioni sul suo argomento di interesse.
-
4
4. Facendo clic sull'annuncio, la persona viene reindirizzata a contenuti che replicano a false testimonianze estremiste.
Risultati
Esempi
I contenuti sono stati caricati da utenti di tutto il mondo, per affrontare la radicalizzazione online, e selezionati da professionisti esperti.
Concentrandosi sulla fetta di pubblico più suscettibile ai messaggi dell'ISIS, la nostra metodologia riconosce che anche i contenuti non creati con lo scopo di offrire un messaggio contrapposto possono ancora minare le testimonianze dannose se scelti, organizzati e indirizzati in modo efficace. Dal 2016, Moonshot ha collaborato con una serie di aziende tecnologiche, tra cui Facebook, per distribuire pubblicità a coloro che esprimono interesse per altri contenuti online dannosi, tra cui supremazia bianca, misoginia violenta e teorie complottiste.
Pre-bunking
Incrementare la resistenza alla manipolazioneIpotesi
Come funziona
-
1
1. Viene presentato un video di prebunking a un gruppo di utenti come annuncio attraverso il feed di social media.
-
2
2. Attraverso brevi videomessaggi la persona viene informata di possibili tentativi di manipolazione online.
-
3
3. Alla persona viene mostrato un esempio pertinente di testimonianza o tecnica manipolativa e quindi vengono fornite controargomentazioni per confutare la tesi.
-
4
4. Analizzando come gli spettatori dei video ricordano le tecniche in un breve sondaggio relativo a un gruppo di controllo, possiamo valutare la probabilità con cui resisteranno ai contenuti manipolativi in futuro.
Risultati
-
73%
delle persone che hanno guardato un video di prebunking sono risultate più propense a individuare costantemente la disinformazione online (fonte: Science Advances)
-
5%
I video di prebunking sotto forma di annunci di YouTube hanno generato un aumento del 5% del riconoscimento delle tecniche di manipolazione (fonte: Science Advances)
Approccio ed esempi
Jigsaw è un'unità interna di Google che esplora le minacce alle società aperte e crea tecnologie che ispirano soluzioni scalabili.