Upozornenia na nepresnosť
Presmerovanie pozornosti používateľov na presnosť informáciíHypotéza
Ako to funguje
-
1
1. Používateľ si prezerá feed na sociálnej sieti a natrafí na obsah, ktorý môže obsahovať nepravdivé informácie.
-
2
2. Spustí sa upozornenie na nepresnosť, ktoré prekryje daný obsah.
-
3
3. Používateľovi sa zobrazí stručné vysvetlenie, prečo toto pripomenutie vidí, a jeho pozornosť je presmerovaná na presnosť obsahu a tipy na zvýšenie informačnej gramotnosti.
-
4
4. Používateľovi sa následne zobrazí upozornenie, že by mal byť obozretnejší a že by podobný obsah vo svojom feede v budúcnosti mal brať s rezervou.
Zistenia
-
50%
Používatelia, ktorým sa zobrazili tipy týkajúce sa presnosti, pri zdieľaní obsahu postupovali o 50 % opatrnejšie (v porovnaní s tými, ktorí tieto tipy nevideli). (Zdroj: Jigsaw)
-
11%
Videá zobrazené pred začatím prehrávania na YouTube priniesli až 11 % nárast dôveryhodnosti, a to 3 týždne po tom, čo im boli používatelia vystavení. (Zdroj: Jigsaw)
Príklady
Tento experimentálny internetový prieskum prebiehal v 16 krajinách a zapojilo sa doň vyše 30 000 účastníkov, ktorí mali ohodnotiť svoj zámer zdieľať pravdivé a nepravdivé titulky.
Redirect Method
Prerušenie radikalizácie na interneteHypotéza
Ako to funguje
-
1
1. Používateľ pri vyhľadávaní na internete použije kľúčové slová, ktoré naznačujú záujem o extrémistickú propagandu.
-
2
2. Spustí sa program Redirect Method, ktorý na základe detegovaného kľúčového slova odošle výzvu na intervenciu.
-
3
3. Používateľovi sa zobrazí reklama, v ktorej nájde viac informácií o hľadanej téme.
-
4
4. Po kliknutí na reklamu je používateľ presmerovaný na obsah, ktorý vyvracia nepravdivé tvrdenia extrémistov.
Zistenia
Príklady
Tento obsah zameraný na boj proti radikalizácii na internete nahrali používatelia z celého sveta a výber z neho zostavili skúsení odborníci.
Naša metodológia sa sústredí na segment publika organizácie ISIS, pri ktorom existuje najväčšie riziko, že ho jej vyhlásenia presvedčia. Zohľadňuje aj to, že šancu oslabiť váhu škodlivých tvrdení má i obsah, ktorý pôvodne nevznikol na účely protiargumentácie – ak sa takýto obsah vyberie, usporiada a zacieli efektívne. Spoločnosť Moonshot od roku 2016 nadviazala partnerstvá už s mnohými technologickými spoločnosťami, napríklad aj s Facebookom, a spoločne nasadzujú reklamy používateľom, ktorí sa zaujímajú aj o iné typy škodlivého správania na internete vrátane nadradenosti bielej rasy, agresívnej mizogýnie a konšpiračných teórií.
Predbežná demystifikácia
Zvýšenie odolnosti proti manipuláciiHypotéza
Ako to funguje
-
1
1. Kontrolnej skupine používateľov a skupine používateľov vystavených spornému obsahu sa vo feede sociálnych médií zobrazí demystifikačné video.
-
2
2. Používateľ je prostredníctvom krátkych videospráv informovaný o možných pokusoch o jeho manipuláciu na internete.
-
3
3. Používateľovi sa potom ukáže relevantný príklad manipulatívnej techniky alebo tvrdenia, ako aj protiargumenty, ktoré dané tvrdenie vyvracajú.
-
4
4. Analýzou nárastu miery zapamätania takýchto techník môžeme vyhodnotiť pravdepodobnosť, s akou budú používatelia schopní objektívne posúdiť manipulatívny obsah v budúcnosti.
Zistenia
-
73%
používateľov, ktorí si pozreli demystifikačné video, s väčšou pravdepodobnosťou identifikovalo nepravdivé informácie na internete. (Zdroj: časopis Science Advances)
-
5%
Demystifikačné videá vo forme reklám na YouTube zvýšili úspešnosť identifikácie manipulatívnych techník o 5 %. (Zdroj: časopis Science Advances)