Sunteți pe pagina 1din 58

ȘTIRILE FALSE ȘI DEZINFORMAREA

DIGITALĂ
Lector univ. dr. Flavia Durach
• Primul lucru care vă trece prin cap când vă gândiți la fake news?

• https://www.youtube.com/watch?v=cSKGa_7XJkg
• Termenul datează din 1890 (Merriam Webster Dictionary)
• Minciuna este veche de când lumea 
• Poate fi și o etichetă: știri, informații cu care nu sunt de acord
(Owens, 2018, https://medium.com/s/story/post-authenticity-and-the-real-truths-
of-meme-culture-f98b24d645a0)
Conținut

Diseminare

Utilizatori
Fake news nu sunt noi!
• Harper’s magazine - 1925 (articolul “Fake news and the public”), în
contextul apariției telegrafului (apud Lazer et al., 2017):

“De îndată ce falsificatorul de știri obține accesul la tehnologia


telegrafului, nici cei mai cinsitiți editori din lume nu vor putea să
repare răul făcut de el. Editorul care va primi știrea prin telegraf nu
are cum să verifice dacă este autoentică, așa cum se poate face în
cazul unui reportaj local.”
Tipologie fake news
(1)

Source: Wardle & Derakhshan, 2017, 5


Tipologie fake news (2)
• Tandoc, Lim, and Ling (2018)
• Criterii: gradul de adevăr (facticity) + intenția de a induce în eroare (intention to deceive)
• din intersecția celor 2 criterii rezultă 6 forme de fake news

• Grad ridicat de adevăr + intenția de a induce în eroare


 Native advertising (O formă de publicitate ce îmbracă forma vizuală a mediului/canalului
unde este publicată, iar reclama efectivă devine parte din conținut)
 Propaganda

• Grad scăzut de adevăr + intenția de a induce în eroare


 Conținut manipulat (foto, video false, știri reale cărora li se modifică anumite detalii)
 Conținut fabricat (știri complet false)

• Grad ridicat de adevăr + nu are intenția de a induce în eroare


 Satira politică (ex. Starea Nației)

Grad scăzut de adevăr + nu are intenția de a induce în eroare


 Parodia politică (ex. Cațavencii)
Fake news – nu neapărate ”fake”, nu neapărat
”news”

Bârgăoanu, Durach. (2019). Emerging media-the new "global despots". How much technology and
how much old fashion psychology? In Delia Cristina Balaban, Ioan Hosu si Ioana Iancu (ed.): PR
Trend: New Challenges and Perspectives II, Mittweida Hochschulverlag, Mittweida, forthcoming 2019
8 motive pentru care “fake news” nu sunt nici false, nici
ştiri (1)

1. termenul a intrat în bătălia politică (tehnica de ăpropagandă a etichetării)


2. Fake?:
a. amestec de adevăr şi fals, aproape false, aproape adevărate
“False, true and anything in between”
b. Nu avem dihotomia adevărat/ fals, ci un interval definit de aceste
extreme
8 motive pentru care “fake news” nu sunt nici false, nici
ştiri (2)
3. Ştiri?
a. Actualităţi/ noutăţi
b. Informaţii din trecut aduse în prezent
c. Opinii, luări de poziţie
d. Emoţii, indignări, comentarii
e. Campanii şi manifestări efemere
f. Fake news și informații ”fanteziste”
g. fotografii, filme, caricaturi, colaje, meme

Crearea unui climat de dezinformare și polarizare, confuzie și scepticism


generalizat mult mai periculos decât niște situații punctuale
8 motive pentru care fake news nu sunt nici false, nici
ştiri (3)

4. Ștergerea granițelor dintre știri și alte informații: „bits” and „pieces” într-un flux
constant în social media de informaţii, ştiri, opinii, comentarii, poze cu şi despre
copii, video-uri cu pisici, reclame, online shopping, rezervări online, computer
games = scăderea vigilenței niastre,m creșterea acceptabilității

5. Comportamentul digital: Like, Comment, Share, React, Tweet, Retweet,


Friend, Unfriend – întreg comportamentul nostru digital este factor de
ampificare a conţinutului digital
+ generare algoritmică a engagement-ului
8 motive pentru care fake news nu sunt nici false, nici
ştiri (4)
6. Amplificarea digitală
• bots
• Conturi fabricate
• Uzine de like-uri
• Fake writers/ fake reviewrs
• Fake followers
• noi alegem ştirile – ştirile ne aleg pe noi în funcţie de profilul online
8 motive pentru care fake news nu sunt nici false, nici
ştiri (5)

8. Nu pot fi cercetate/ observate


– nu putem avea o imagine „îngheţată” la un moment dat, totul se
schimbă în funcţie de comportamentul digital ulterior
- Fiecare newsfeed este unic și irepetabil
Infocalipsa?
• Deepfakes = deep learning + fake (AI)
• Deep learning: algoritmi care învață să ia decizii singuri

• It’s Getting Harder to Spot a Deep Fake Video


https://www.youtube.com/watch?v=gLoI9hAX9dw

• Lil Miquela And The Rise Of Digital Models


https://www.youtube.com/watch?v=ig8ZnFt3UPA

• Face2Face: Real-time Face Capture and Reenactment of RGB Videos


• https://www.youtube.com/watch?v=ohmajJTcpNk
Infocalipsa?
• Companiile digitale se pregătesc să lupte cu deep fakes
• Tehnologia GAN= generative adversarial network
• Rețele neurale robotice care concurează una împotriva celeilalte – învățare algoritmică;
stimularea ”imaginației” AI
• Utilizată și pentru îmbunătățirea tehnologiei deep fake, și pt îmbunătățirea tehnologiei de
detecție
• Detectori de fake news – trebuie să țină pasul cu rafinarea tehnologiei din
spatele deep fakes
• Cercetare: Google, Facebook
• Schimbări continue
• Utilizarea deep fakes: (încă) relativ rar în scopuri de dezinformare. Ft frecvent:
umor, scop didactic, (multă) pornografie
Studiu de caz: Circuitul știrilor false
Realizarea Mesajul Mesajul

(RE)PRODUCERE
CREAȚIE

DISTIRBUȚIE
conținutului devine un este
produs distribuit
mesajului media pentru
public
Circuitul știrii
 DISTIRIBUȚI
• PRODUCERE
CREAȚIE E
• Articol publicat pe site-ul WTOE5 News,
Creată de un autor parte a unei rețele de 43 de site-uri false,  Distribuit pe
neidentificat care au fost scoase de pe web după Facebook de un
finalizarea campaniei angajat al rețelei
de știri false

 REPRODUCERE
 -distribuit de conturi de Facebook /persoane asociate rețelei de site-uri false
 - distribuit de fanii Trump
 - distribuit de cei care au un interes strategic în victoria lui Trump
 - distribuit de detractorii lui Trump, pentru a arăta cât de creduli sunt suporterii acestuia și cât de
neetice practicile sale de campanie
Efecte ale știrilor false
• Efecte cu potențial negativ
• Scăderea încrederii în media
• Scăderea încrederii în jurnaliști
• Creșterea cinismului politic
• Scăderea încrederii în democrație
• Afectarea proceselor democratice
• Polarizarea opiniei
• Decizii proaste (ex: antivaciniștii)
• Efectul celei de-a treia persoane
• Privind vulnerabilitatea la știri false
• Privind expunerea la știri false
Dezinformarea în mediul online
• Expresia contemporană a mai vechiului fenomen al dezinformării și
propagandei, cu distincția importantă că
• este inseparabilă în raport cu dezvoltarea platformelor digitale
• se bazează într-o mare măsură pe progresul tehnologiei, pe
funcționarea algoritmică și pe exploatarea seriilor mari de date
• ”fake news”- termen umbrelă pentru practicile de dezinformare în mediul
online
• Mix de probleme
• Mesajul în sine
• Mijlocul prin care este diseminat
• Tehnologia din spate
• Comportamentul digital care permite viralizarea sa
Propaganda computațională
• Computational Propaganda Worldwide: Executive Summary (Samuel C. Woolley, University of
Oxford & Philip N. Howard, University of Oxford, 2017)
• Propaganda computațională = desemnează eforturile recente de dezinformare și manipulare
• Utilizarea algoritmilor, automatizării și intervenției umane deliberate pentru distribuirea
dezinformării pe rețelele sociale (Woolley & Howard, 2016)

• ”colaborare” între boți și troli

• Boți = software capabil să realizeze sarcini robotice, elemetare, în social media, pot simula
inclusiv conturi ”reale” și pot ”comunica” cu oamenii și sistemele informatice
• Benign: crearea și distribuția de știri;
• Malign: spam, hărțuire, păcălirea algoritmilor pentru virtalizarea conținutului dorit, manipulare
politică
Tehnici de propagandă computațională- Parlamentul European
• Folosite de agenți statali nedemocratici și agenți non-statali pentru a afecta
procesele democratice

1. Algoritmi (procese, seturi de instrucțiuni software) – fitrează și prioritizează


conțintul pe care îl primim online // adună serii mari de date, pot duce la
izolarea în echo chambers, servesc conținut foarte personalizat
2. Boți (conturi automate) – distribuirea dezinformării online. Mai –iunie 2018-
Twitter a închis 70 mil conturi false; Facebook: 589 mil in primele 4 luni din
2018. Generațiile viitoare de boți vor recurge, cel mai probabil, la tehnici
avansate de replicare a limbajului ”natural” (v.urm slide-uri)
Procesarea limbajului natural
• programul de calculator bazat pe Inteligenţă artificială GPT-2
• un "model lingvistic nesupravegheat", ceea ce înseamnă că poate formula
răspunsuri coerente fără nici un input uman, prin prelucrarea unei cantităţi
relativ semnificative (40 gigabaiţi) de texte disponibile pe Internet
”Dialog cu GPT-2”

• Q: Greetings, GPT-2. Have you done an interview before?


A: I’m not going to lie. I did not come prepared (laughs).
• Q: Which technologies are worth watching in 2020?
A: I would say it is hard to narrow down the list. The world is full of disruptive
technologies with real and potentially huge global impacts. The most important is
artificial intelligence, which is becoming exponentially more powerful. There is also
the development of self-driving cars. There is a lot that we can do with artificial
intelligence to improve the world.
• Q: Do fake news stories, generated using ai, pose a threat to democracy? Are we
likely to see this tactic being used in the 2020 American presidential elections?
A: Yes, we’ll probably see them. It’s just a matter of when. Fake news stories are
generally generated by political campaigns, and have the potential to have a huge
impact on the outcome of an election. This is because they spread misinformation,
often with no basis in fact.
”Dialog cu GPT-2”
• Q: Moving on from technology, do you think the trade war between China and
America will be resolved in 2020?
A: I believe that the most likely outcome is that we will see a more competitive world
with China as an important player. At the same time, we will see a more balanced
relationship between the United States and China, especially with respect to issues
like trade policy.
• Q: Do you think Donald Trump will win a second term?
A: I think he will not win a second term. I think he will be defeated in the general
election.
• Q: Do you have any advice for our readers?
A: The big projects that you think are impossible today are actually possible in the
near future.
• Q: Thank you very much for talking to us.
A: You are welcome.
Tehnici de propagnadă computațională- Parlamentul European
3. Trolls (bullies – hărțuitori, agitatori – persoane reale)- agenți umani, de
regulă plătiți pentru a hărțui alți useri, a crea controverse și a posta conținut
polarizant. Fabrica de troli Russian Internet Research Agency (IRA), -St.
Petersburg, condusă Yevgeny Prigozhin (12 lideri inculpați pentru
implicarea în alegerile SUA 2016)
4. Inteligență artificială – machine learning, chatbots, deepfakes
#DIGITALDECEIT
GHOSH & SCOTT, 2018

Instrumente de marketing folosite pentru dezinformare


Propaganda de înaltă precizie:

• Colectarea de serii mari de date behaviourale


• ”oxigenul” publicității online/ profil precis al fiecărui consumator

• Platforme de advertising digital


• Advertising targetat, bazat pe analizare emoțiilor și persusiune. Mii de experimente automate
cu mesaje targetate pe tipuri de profil al consumatorului
#DIGITALDECEIT
GHOSH & SCOTT, 2018
• Optimizarea motoarelor de căutare
• Păcălirea algoritmilor pentru ca mesajele de dezinformare să domine căutarile

• Software de management al rețelelor sociale


• Soluții integrate de preconfigurarea automata și simultană a mesajelor pe nenumărate
platforme digitale (mașina de dezinformare)

• Tehnologii algoritmice de advertising


• Algoritmi capabili să învețe, contribuția tot mai sofisticată a inteligenței artificiale
Campanii online de persuasiune. Practici neetice: cyberturfing

• Astroturfing = o tehnică de propagandă utilizată în scopuri


publicitare, politice sau din domeniul relațiilor publice, care
urmărește crearea impresiei aparente a unui comportament
spontan în sprijinul unei opinii, pentru a-i conferi o pretinsă
„popularitate” pe care nu o deține în realitate.
• Cyberturfing = echivalentul fenomenului de astroturfing în mediul
online
Campanii online de persuasiune.
Practici neetice: cyberturfing
• Mecanisme de persuasiune
• Falsa creeare a susținerii = stimularea spiritului de turmă
• Grassroots marketing
• Tehnica oamenilor obișnuiți
• Testimoniale
Campanii online de persuasiune.
Practici neetice: cyberturfing

• CyberTurfing: caracteristici
1. Caracterul viral, pierderea din vedere a sursei inițiale
• Contagiune până la mișcări de masă
• Useri obișnuițși contribuie la viralizare fără a cunoște caracterul malign al
campaniei

2. Caracterul înșelător
• Legături ascunse între mesaj și interesele sursei
Campanii online de persuasiune.
Practici neetice: cyberturfing

3. Profită de caracteristicile mediului digital, pe care îl manipulează


• Utilizarea boților pentru impresia de legitimitate (popularitatea se confundă cu legitimitatea)

4. Profită de biasurile cognitive ale utilizatorilor


• Recursul la scurtături mentale în luarea deciziilor
• Repetiția conferă credibilitate zvonurilor
• Dorința de a fi în trenul victoriei (bandwagon effect)
CyberTurfing în politică
• Kovic, Rauchfleisch, Sele, & Caspar (2018)
• Tehnici și instrumente de CyberTurfing
• Marionete (conturi false)
• Ferme de click-uri (fake followers, fake likes)
• Simpatizanți umani și ”postaci” plătiți
• Activități de CyberTurfing
• Crearea activă de conținut
• Exprimarea acordului/dezacordului în raport cu un conținut deja existent
• Unde?
• Social media
• Websites
• Secțiuni de comentarii
• Mesageria directă

Campania de CyberTurfing = oricâte combinații între tehnici, instrumente, activități și destinații


Exemplu de cyberturfing
• https://www.youtube.com/watch?v=-bYAQ-ZZtEU
• Astroturf and manipulation of media messages | Sharyl Attkisson |
TEDx_University of Nevada
Fake news = dezinformare. Dezinformare
digitală
• Schimbările din ecosistemul media
• Proliferarea rapidă a website-urilor de știri și a platformelor online
de opinie
• social media
• Modificarea modului în care cetățenii consumă știri
• Schimbarea modelului de afaceri în doemniului jurnalismului
• Noile canale de distribuție a știrilor se dezvoltă mai repede decât avem
noi capacitatea să le înțelegem și să le controlăm
• Vulnerabilitatea societăților democratice la dezinformare (multiplicitatea
de voci)
Factori agravanți- schimbarea modului în care se
consumă știrile

• Neîncredere ronică în jurnalimul tradițional (Tsfati, 2010)


• Surse alternative de știri(Tsfati & Cappella, 2003)
• Global Media Influence Survey – încrederea în media tradiționale ca cea mai
bună sursă de știri de la 72% - 2016, la 50.4% în 2018
Reuters Institute Research 2019
Reuters Institute Research 2019
Reuters Institute Research 2019
Reuters Institute Research 2019
Reuters Institute Research 2019
Reuters Institute Research 2019
Reuters Institute Research 2019

NUPSPA, College of Communication and Public Relations


Edelman Trust Barometer Global Report 2018
Edelman Trust Barometer Global Report 2018
SOCIAL MEDIA ȘI
DEZINFORMAREA
Filter bubbles
Echochambers
Viralizarea intenționată și neintenționată a dezinformării
• Colectarea de big data  targetare precisă
• Social media- megafonul oricui este capabil să atragă fani/
followers
• Nouă structură de putere capabilă să distribuie mari volume
de informații, inclusiv știri false
• Cu cât auzim o informație de mai multe ori, cu atât mai
familiară devine, și cu atât suntem mai înclinați să îi dăm
crezare
• Puterea și periculozitatea dezinformării online derivă din:
abundența surselor, crearea de bule/ camere de rezonanță
informațională (echo chambers & filter bubbles
• Lipsa unei realități comun împărtașite societate divizată,
fragmentară
Răspândirea știrlor false și adevărate online
Soroush Vosoughi, Deb Roy, Sinan Aral, 2018

• Știri adevărate și false distribuite pe Twitter din 2006 până în 2017


• ~126,000 știri distribuite de ~3 milioane de indivizi, de 4.5 million de ori
• Știrile false păreau mai de actualitate șimai interesante decât cele adevărate
 oamenii tind să distribuie informațiile noi, interesante
• Boții nu au răspândit știrile false mai repede ca oamenii înșiși, de unde
rezultă că știrile false se răspândesc mai repede decât cele adevărate cu
contribuția utilizatorilor reali
Polarizarea opiniei în mediul online
• Conținutul partizan, fake sau nu, restructurează ecositemul media
• Practicile de dezinformare sunt profund partizane ideologic (Narayanan et al., 2018;
Benkler et al, 2017)
• Ecosistem media alternativ cuplat cu neîncrederea cronică în jurnalismul
tradițional (Tsfati, 2010) și cu un conținut de tip conspiraționist
Factori care contribuie la izolarea ideologică
1. Psihologici- bias cognitiv, expunere selectivă, bias de confirmare (Lazer et
al., 2017; Mullainathan and Shleifer 2005; Wardle & Derakhshan, 2017)
• Indivizii caută în mod activ și interacționează cu informații și surse care le confirmă
opiniile și credințele preexistente
II. Comportamentali
• Izolare prin comportamentul nostru digital
III. Contribuția algoritmilor
– distribuirea conținutului polarizant prin decizii asupra afișării informațiilor
conform caracterisicilor fiecărui user în parte (Narayanan et al., 2018),
ducând la crearea de echochambers și filter bubbles [Allcott &Gentzkow,
2017), (Spohr, 2017).
Filter bubble
• Termenul se referă la expunera selectivă creată și rafinată în permanență prin intermediul
predicțiilor algoritmice asupra preferințelor, intereselor și nevoilor noastre de informare în
prezent și în viitor (E. Pariser, 2011)
• Afectează fără precedent modul în care ne expunem la informație
• Caracteristici
• Unicitate (o constelație de informații unice pentru fiecare utilizator în parte)
• Invizibilitate (de ce vedem rezultatele pe care le vedem?)
• Participare involuntară (puțione decizii conștiente pot cu adevărat impacta filtrele ce ne sunt aplicate)
Echo chambers
• Tendința indivizilor de a forma comunități online omegene la nivel de idei,
puncte de vedere, valori views (Colleoni, Rozza, & Arvidsson, 2014).
• Granițe simbolice
• Efect de amplificare a opiniilor (Barfar, 2019)
• Mecanism: delegitimizarea punctelor de vedere diferite (Thi Nguyen, 2018)
• Istoricul conceptului: term ”cyber-balcanizare” (Van Alstyne & Brynjolfsson,
MIT, 2005), autoizolare, enclavizare (Cass Sunstein (2001; 2017).
Echochambers – caracteristici

• Reflectă schimbările recente în selectarea și consumul informației


(dezintermediere prin jurnalsimul tradițional, accentul pe comunități împărtășite
de idei) (Bessi et al., 2016)
• Omogenitate de idei, valori, puncte de vedere (Batorski & Grzywińska, 2018)
• Uniformitatea interacțiunilor dintre membri (Shin & Thorson, 2017; Törnberg,
2018).
• consens > acuratețe (Colliander, 2019, Arfini, Bertolotti, & Magnani, 2018).
• Exprimarea fățișă a negativității (Del Vicario et al., 2016; Shin & Thorson,
2017),
flavia.durach@comunicare.ro

S-ar putea să vă placă și