Newsletterul ANTI-FAKE (14-21 Iunie 2021)

Incursiune în culisele platformelor digitale

Ce știm despre modul în care platformele digitale combat dezinformarea? Gândul se duce automat la situațiile foarte mediatizate, cum ar fi ștergerea conținutului fals/dăunător sau suspendarea/închiderea conturilor care au vehiculat acest tip de conținut. De fapt, acțiunile întreprinse de platformele digitale alcătuiesc un peisaj mult mai complex.

Din analiza politicilor platformelor digitale, rezultă trei tipuri de intervenții. Etichetarea conținutului de o credibilitate scăzută este acțiunea cea mai vizibilă. Sunt aplicate două tipuri de etichete: cele privind credibilitatea (de exemplu, eticheta de conținut fals/disputat) și cele care oferă informații suplimentare (de exemplu, trimiteri către surse credibile de informație, fără să facă aprecieri privind conținutul etichetat). Mai puțin vizibile sunt intervențiile algoritmice, cele care modifică vizibilitatea unui anumit conținut, în baza unor indici de credibilitate. Cele mai controversate sunt măsurile de eliminare a conținutului, care se aplică atunci când nu există îndoieli privind caracterul fals al afirmațiilor, iar daunele sociale sunt apreciate ca fiind semnificative (de exemplu, cazul documentarului cu conţinut pseudo-ştiinţific „Plandemic”).

Intervențiile sunt gândite pe mai multe paliere. La nivelul postărilor individuale, platformele recurg la etichetarea, eliminarea sau reducerea vizibilității conținutului. La nivelul utilizatorilor, există măsuri de suspendare temporară sau eliminare definitivă a conturilor și grupurilor, atunci când acestea fac parte din rețele coordonate de dezinformare sau când acumulează penalizări repetate. La nivelul feed-urilor de știri, este utilizată practica „shadow-banning”, prin care anumite hashtag-uri, cuvinte-cheie sau conturi sunt eliminate din lista de afișări, fără notificarea celor vizați.

Justificarea măsurilor de mai sus se sprijină pe activitatea fact-checkerilor profesioniști, pe recomandările grupurilor de experți și, într-o mai mică măsură, pe alertele venite din partea altor utilizatori. Cei care critică astfel de intervenţii semnalează probleme precum: aplicarea neuniformă de la platformă la platformă, lipsa unor unități de măsură standardizate, precum și relativa absență a explicațiilor publice privind modul în care sunt luate aceste decizii. În UE, Codul de bune practici consolidat și actualizat îşi propune să răspundă, fie şi parțial, acestor probleme.

Citește mai mult:
hbr.org – Harvard Business Review: How to Hold Social Media Accountable for Undermining Democracy

Atenție la informațiile medicale prezentate într-o manieră incompletă sau înșelătoare

Recent, mai multe postări pe rețelele sociale, videoclipuri și articole pe unele website-uri din România au susținut că testele RT-PCR și testele rapide antigen, utilizate în depistarea infecției cu virusul SARS-CoV-2, ar putea „provoca infertilitate, cancer, leucemie sau modificări genetice”. Potrivit acestor postări și articole, tampoanele de exudat nazofaringian și faringian sunt „contaminate” cu agenți cancerigeni, și anume cu oxid de etilenă. Oxidul de etilenă este, într-adevăr, utilizat pentru dezinfectarea echipamentelor medicale, inclusiv a testelor pentru depistarea COVID-19, însă, potrivit experților medicali (vezi câteva ilustrări mai jos), utilizarea acestui gaz în procesul de dezinfectare nu  prezintă un pericol pentru sănătate.

 

Citește fact-checking-ul integral aici.

Inteligența artificială, angajată în lupta împotriva dezinformării

Specialiști de la MIT Lincoln Laboratory au construit un sistem bazat pe inteligență artificială, The Reconnaissance of Influence Operations (RIO), capabil să detecteze în mod automat atât campanii de dezinformare, cât și surse care răspândesc narațiuni false pe rețelele sociale,  fie că este vorba despre utilizatori obișnuiți, fie că sunt boți. Sistemul a fost utilizat pentru a analiza campaniile de dezinformare desfășurate pe Twitter, în contextul alegerilor prezidențiale din Franța din 2017. Cercetătorii au demonstrat că RIO are capacitatea de a detecta cu o precizie de 96% conturile celor implicați în astfel de campanii. De asemenea, sistemul este capabil să identifice rețele interconectate care acționează în mediul digital pentru a răspândi conținut înșelător sau fals. În plus, RIO poate descoperi cu acuratețe unele conturi greu detectabile prin mijloace tradiționale.

Acest sistem are la bază un anumit model de inteligență artificială, utilizat cu succes atât pentru a combate dezinformarea, cât și pentru a genera știri false nedetectabile. Așa cum menționam într-un articol anterior, asistăm la o veritabilă „cursă a înarmării”, în sensul unei dispute permanente între cei care pun în circulație știrile false și cei care încearcă să le combată în mod automat și rapid. Chiar şi aşa, detectarea automată și rapidă a conturilor de utilizator responsabile pentru punerea în circulație a știrilor false reprezintă un pas semnificativ în limitarea dezinformării digitale.

Citește mai mult:
towardsdatascience.com – Can Artificial Intelligence Help Us Fight Fake News?
straitstimes.com – AI to power Google’s battle against fake news
telecomreview.com – Can AI help to win the fake news battle?

Echo chambers: ce sunt și cum putem evada

Echo chambers sau camerele de rezonanță comunicațională reprezintă acel spațiu comunicațional închis, caracterizat de uniformitatea mesajelor și opiniilor şi creat în special în interiorul rețelelor sociale. „Locatarii” acestor echo chambers au credințe și perspective foarte asemănătoare, motiv pentru care refuză schimbul de idei cu alte persoane pe care nu le consideră de încredere. Astfel, ei devin captivi în interiorul unor spații închise ermetic, excluzând, practic, toate celelalte puncte de vedere care ar putea fi corecte și devenind victimele unor realități puternic subiective.

Ce se poate face pentru a evada? O metodă este să accesăm surse de informare care nu prezintă doar viziunea cu care suntem de acord și pe care o susținem cu tărie, ci și pe cea opusă. De asemenea, este recomandat să intrăm în dialog cu rudele sau prietenii care au viziuni diferite de ale noastre cu privire la un anumit subiect (acest dialog ne-ar ajuta să ne reprezentăm mai bine perspectivele multiple asupra unei probleme). În plus, este util să devenim conștienți că sursele media pe care le utilizăm sunt, uneori, părtinitoare și să încercăm să căutăm surse de informare care să acopere întregul spectru ideologic. În acest fel, putem ajunge la o înțelegere mai echilibrată a evenimentelor și chiar să ne eliberăm din mrejele unor realități subiective.

Citește mai mult:
wired.com – How to Break Out of Your Social Media Echo Chamber
theguardian.com – Echo chambers are dangerous –  we must try to break free of our online bubbles

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *