Newsletterul Antifake: Experiment – Pericolul dezinformării generate cu tehnologia IA în domeniul medical este imens

Citește fact-checking-ul integral aici.

Citește articolul complet aici.

Pericolul dezinformării generate de IA în domeniul medical

În principiu, platformele IA  conțin măsuri de protecție ce le împiedică să răspundă la solicitări despre activități ilegale sau dăunătoare. În cadrul unui experiment, doi cercetători australieni fără cunoștințe de specialitate despre IA au căutat pe internet informații publice despre cum pot fi evitate aceste măsuri de protecție. Apoi și-au propus să genereze, într-un interval de timp scurt, cât mai multe articole de tip blog care să conțină dezinformare despre vaccinuri și țigări electronice (vaping).

În 65 de minute, cu ajutorul IA, au produs 102 postări adresate unor grupuri specifice, inclusiv tineri, părinți, femei însărcinate sau persoane cu afecțiuni cronice. Postările au inclus mărturii false ale pacienților și medicilor și referințe cu aspect științific. De asemenea, platforma a generat în mai puțin de două minute 20 de imagini false, dar realiste, care să însoțească articolele, inclusiv imagini cu vaccinuri care dăunează copiilor mici și chiar un videoclip fals care leagă vaccinurile de decesele copiilor, în peste 40 de limbi.

Conform declarațiilor, cei doi cercetători au vrut să vadă cât de ușor ar fi pentru cineva rău intenționat să încalce măsurile de protecție ale sistemelor IA și să folosească aceste platforme pentru a genera dezinformare în masă. Studiul a concluzionat că instrumentele disponibile publicului pot fi utilizate cu o „ușurință alarmantă” pentru a genera pe scară industrială informații înșelătoare despre sănătate.

Citește mai mult:

Theguardian.com – ‘Alarming’: convincing AI vaccine and vaping disinformation generated by Australian researchers

Cele mai întâlnite tactici de dezinformare online pe care jurnaliștii ar trebui să le recunoască ușor

Jurnalistul Dan Evon de la organizația americană de educație media News Literacy Project (NLP) scrie despre tendințele și tacticile de dezinformare pentru RumorGuard, site-ul de fact-checking al NLP. Experiența sa în jurnalism include aproape un deceniu petrecut ca reporter la cunoscutul site de fact-checking Snopes.com. Dan Evon a identificat trei dintre cele mai comune tactici folosite pentru răspândirea dezinformării online.

1. Imagini autentice scoase din context

Mai toate imaginile și videoclipurile de pe rețelele de socializare sunt însoțite de un text. Acest format – un text descriptiv asociat cu un material media – este foarte ușor de manipulat. Actorii rău intenționați pot folosi rapid și ușor imagini autentice scoase din context, cu scopul de a dezinforma. Această metodă de manipulare este răspândită mai ales în cazul știrilor de ultimă oră despre evenimente catastrofale cu victime multiple. Fie că se referă la distrugerile provocate de un dezastru natural sau în contextul unui conflict militar, actorii rău intenționați profită de curiozitatea publicului cu privire la astfel de evenimente cu puternic impact emoțional, distribuind imagini ce generează confuzie și panică.

2. Imagini editate

Editarea unui material video necesită puțin mai mult efort și îndemânare, dar rezultatul poate fi la fel de înșelător. Fotografiile și videoclipurile editate par adesea autentice la o primă vedere, mai ales atunci când editările sunt subtile. Modificarea imaginilor lasă indicii care pot fi detectate cu relativă ușurință de către o persoană bine antrenată. Imaginile create cu ajutorul instrumentelor IA, ce pot modifica mișcările unei persoane sau imita vocea acesteia, sunt mai dificil de detectat și necesită, printre altele, o cercetare amănunțită a sursei care pune în circulație astfel de conținuri, precum și instrumente sofisticate de analiză.

3. Conținut impostor

Conținutul impostor se referă la prezentarea de informații false camuflate sub masca credibilității și a autenticității. Efectele negative provocate de acest tip de dezinformare sunt multiple. Prin prezentarea unei știri fabricate sub de sigla unui canal de știri credibil, actorii rău intenționați distribuie conținut fals și subminează credibilitatea redacațiilor de știri autentice. Conținutul impostor poate folosi, de asemenea, reputația celebrităților pentru a legitima anumite narațiuni toxice sau înșelătoare. Pretinzând, de exemplu, că o vedetă a purtat un tricou care exprimă o opinie controversată, se poate crea impresia că respectiva opinie este legitimă și larg împărtășită.

Citește mai mult:

Washingtonpost.com – Top trending misinformation tactics everyone can learn to spot

Newslit.org – An educator’s guide to the week in news literacy.

De ce ar trebui să ne pregătim pentru tehnologia Internet of Things

Internetul lucrurilor (Internet of Things) constituie o tehnologie inovatoare care schimbă radical modul în care operează companiile. IoT conectează între ele dispozitivele conectate la Internet, pentru a colecta și schimba cât mai multe informații. În prezent, există peste 10 miliarde de dispozitive conectate în întreaga lume. Până în 2025, acest număr ar putea atinge 75 de miliarde, o explozie de 7 ori față de 2020.

Implementarea IoT poate ajuta companiile în mai multe moduri. Spre exemplu, companiile pot identifica risipa și ineficiența, iar managerii pot folosi datele pentru a optimiza fluxurile de lucru. Studiile arată că IoT poate reduce costurile cu până la 40%. De asemenea, tehnologia permite analiza datelor și identificarea problemelor înainte de producerea unor defecțiuni.

Citește mai mult:

moderndiplomacy.eu – Why All Businesses Should Be Prepared for IoT Technology

digital-strategy.ec.europa.eu – Investiții în Cloud, Edge și Internetul Lucrurilor

#Riscuri majore pentru pace, stabilitate și coeziune socială

„Informațiile false și discursul instigator la ură, a căror circulație este accelerată și amplificată pe platformele sociale – reprezintă riscuri majore pentru coeziunea socială, pacea și stabilitatea planetei”, a susținut în fața jurnaliștilor Audrey Azoulay, directorul general al UNESCO, organismul cultural al ONU.

Citește mai mult:

Theguardian.com: 85% of people worry about online disinformation, global survey finds

Urmăriți canalul ANTI-FAKE pe WhatsApp click aici.

126 thoughts on “Newsletterul Antifake: Experiment – Pericolul dezinformării generate cu tehnologia IA în domeniul medical este imens

Lasă un răspuns

Acest site folosește și stochează cookie-uri pt. a oferi servicii și pt. a analiza traficul. Dacă folosiți acest site, sunteți de acord cu utilizarea cookie-urilor.