Citește fact-checking-ul integral aici.
Prima informație contează cel mai mult
Din ce cauză putem cădea pradă dezinformării din mediul online? Multe explicații oferite în acest sens au legătură cu o serie de erori cognitive care au fost inventariate într-un index. În această categorie intră și „efectul de ancorare” (anchoring bias). Acesta se referă la tendința noastră de a lua drept punct de referință prima informație pe care o primim cu privire la un subiect. Ea funcționează ca o ancoră, iar toate celelalte informații pe care le întâlnim ulterior despre subiectul respectiv sunt raportate la aceasta.
Efectul de ancorare acționează în sensul consolidării credinței în teoriile conspirației. Acestea oferă interpretări ale evenimentelor despre care există puține informații. Astfel, după o primă expunere la o anumită narațiune conspiraționistă, faptele și informațiile ulterioare sunt percepute drept dovezi care susțin narațiunea inițială.
Citește mai mult:
medium.com – How Cognitive Bias Fuels Coronavirus Fake News
theatlantic.com – The Cognitive Biases Tricking Your Brain
Atunci când, în loc să corecteze nedreptăți, AI contribuie la adâncirea lor. Ce este bias-ul în AI?
Într-o dimineață obișnuită din Țările de Jos, o mamă își verifică contul bancar și descoperă că alocațiile pentru copilul ei au fost suspendate. Curând, primește și o notificare oficială: este acuzată de fraudă. Nu înțelege. Nu mințise, nu încălcase nicio regulă. La fel ca ea, mii de părinți – în mare parte cu nume „străine” – se trezesc brusc în aceeași situație. Fără să știe, o mașină – un algoritm, mai exact – le etichetase drept suspecți. Fără drept de apel, fără explicație.
Ani mai târziu, o investigație publică avea să confirme ceea ce familiile simțiseră intuitiv: un sistem AI folosit de autoritățile fiscale discriminase în mod sistematic persoanele cu origini imigrante, etichetându-le greșit ca fiind fraudatori. Circa 26.000 de oameni au fost afectați.
Din păcate, aceasta nu este o poveste SF. Este realitate. Și este doar unul dintre numeroasele cazuri în care inteligența artificială, în loc să corecteze nedreptăți, le-a adâncit. Algoritmii ne sunt adesea prezentați ca fiind obiectivi: fără emoții, fără prejudecăți. Însă în spatele deciziilor „raționale” ale AI-ului se ascund adesea modelele noastre sociale – cu tot cu stereotipuri, discriminări și dezechilibre.
De exemplu, sistemele de recunoaștere facială dezvoltate de companii de tehnologie importante s-au dovedit a avea rate de eroare mai mari pentru persoanele cu pielea închisă la culoare și pentru femei. În practică, asta înseamnă că cineva poate fi reținut pe nedrept doar pentru că algoritmul „a greșit fața”. Sau că, în unele state democratice, algoritmi folosiți în acordarea de credite oferă limite mai mici femeilor decât bărbaților, în ciuda profilurilor financiare similare. În aceste cazuri, tehnologia nu e neutră. Devine complice.
De unde vine bias-ul? Bias-ul algoritmic nu apare din senin. Este, de multe ori, moștenirea datelor pe care AI-ul le învață. Dacă istoricul de date este părtinitor – adică reflectă discriminări sociale preexistente –, atunci AI-ul nu face decât să le repete. Și o face cu autoritatea rece a unei „decizii automate”. Pe lângă datele defectuoase, lipsa de diversitate în echipele care creează AI contribuie la perpetuarea acestui tip de injustiție. Cine decide ce înseamnă „normal”, „eligibil” sau „suspect”? De multe ori, răspunsul e: un algoritm antrenat fără să cunoască întreaga realitate socială.
Ce se face – și ce nu se face – în privința asta. La nivel global, instituții precum UNESCO și OECD promovează principii de „AI etic”: transparență, echitate, responsabilitate. În teorie, acestea sunt binevenite. În practică, însă, realitatea rămâne complicată. S-au făcut progrese: în unele țări se aplică audituri algoritmice pentru a verifica dacă AI-ul nu discriminează. În alte locuri, se discută despre legi care să oblige companiile să explice cum funcționează sistemele lor. Dar totul este încă la început, iar multe dintre „corectările” propuse sunt reactive, nu preventive.
Aceste aspect ne privește pe toți pentru că AI-ul devine tot mai prezent în viața noastră. Tocmai de aceea este esențial să înțelegem un lucru simplu: deciziile algoritmilor nu sunt infailibile. Ele pot greși. Iar uneori, pot răni. Când un algoritm decide cine merită un credit, cine e „potențial periculos” sau cine primește o șansă în plus – trebuie să ne întrebăm: După ce reguli joacă? Și cine le-a scris?
Citește mai mult:
UNESCO – Ethics of Artificial Intelligence
FRA – Bias in Algorithms (EU Agency for Fundamental Rights)
IEEE – Four Conditions for Trusted AI