În anul 2024, aproape jumătate din populația lumii a fost sau va fi chemată să voteze. Vor avea loc alegeri pe 4 continente, în 64 de țări în care trăiește 49% din populația lumii. Ele vor avea loc pentru funcții la toate nivelele, de la șefiile de state, trecând prin parlamente și până la nivel regional sau local. Vor fi aleși președinți, prim-miniștri, deputați în parlamente, judecători, primari și membri ai consiliilor locale. Alegeri vor avea loc în democrații, în democrații care se declară drept ‘iliberale’ și în democrații doar cu numele. Ceea ce este comun tuturor este faptul că o majoritate a alegătorilor își va baza votul pe informații primite pe Internet. Și, așa cum știm, așa cum am discutat de multe ori în rubrica CHANGE.WORLD, pe Internet circulă multă informație falsă și dezinformație. O parte din aceasta este și va fi generata intenționat, în scopuri de propagandă politică. Veștile bune sunt că falsurile de pe internet pot fi detectate în cea mai mare parte a cazurilor și că identificarea lor nu este foarte complicată, deși cere puțin efort, dar mai ales dorință de a nu ne lăsa păcăliți și influențați. În articolul acesta, voi discuta câteva exemple și voi aduce în discuție și metodele care pot să ajute. Voi aborda și legătura dintre dezinformare și Inteligența Artificială (AI), care îi poate ajuta pe generatorii de falsuri, dar și pe cei care luptă pentru identificarea și neutralizarea acestora.
(sursa imaginii: https://time.com/6550920/world-elections-2024/)
Voi discuta în articol trei exemple bazate pe postări de pe Facebook la care am fost expus în săptămâna care a trecut. Primul dintre ele este o postare pe care au preluat-o și distribuit-o mai departe (au ‘shareuit-o’) mulți dintre prietenii mei de Facebook cu vederi politice conservatoare. Cel puțin zece dintre ei, poate chiar spre 20. Era o știre despre actorul Clint Eastwood, care ar fi decis să returneze cele șase premii Oscar și statuetele aferente, ca protest contra tendințelor ‘woke’ ce domină astăzi la Hollywood. Mie, știrea mi s-a părut prea bună (pentru prietenii conservatori) pentru a fi adevărată și primul lucru pe care l-am făcut a fost să merg la site-ul meu preferat de informații despre filme – Internet Movie Data Base IMDb (https://www.imdb.com/name/nm0000142/), pentru a verifica numărul de premii Oscar pe care le-a primit Eastwood. Ei bine, sunt doar patru. Clint nu ar fi putut deci să returneze șase statuete decât dacă le-ar fi furat de la colegi, or un artist conservator serios nu face așa ceva. Apoi am intrat pe Google, am făcut un ‘search’ cu ‘Clint Eastwood Oscars’ și, după cele câteva site-uri de informații despre filme, am găsit articolul din revista ‘People’ cu titlul ‘Clint Eastwood Has Not Returned His Oscars, Despite Viral Meme’s Claim’. Îl puteți citi la adresa https://people.com/clint-eastwood-has-not-returned-oscars-8649769. Știrea era deci un fals.
Morala:
1. Când un articol vi se pare prea bun pentru a fi adevărat, verificați-l înainte de a-l distribui.
2. Verificați informația factuala care este evidenta de la prima citire sau vedere în mesaj.
3. Faceți un search cu conținutul articolului pentru a verifica dacă nu există informații care sugerează că ar fi vorba despre un fals (hoax).
Toate aceste căutări nu durează mai mult decât 2-3 minute. Dacă totul este în regulă, puteți distribui. Deviza trebuie să fie: ‘Cercetează înainte de a crede!’.
(sursa imaginii: www.bidt.digital/fighting-fake-news-on-social-media-what-can-be-done/)
Al doilea exemplu: Un prieten american a postat o fotografie care însoțește un mesaj pentru pace în Orientul Mijlociu. Este vorba despre o fotografie cu un băiețel arab și o fetiță evreică, îmbrățișați și zâmbitori, fotografiați pe un fundal care ar putea fi cel al deșertului Iudeei. Este însă fotografia autentică? Cum aplicăm cele trei puncte menționate mai sus? Punctul 1 este evident ‘prea bun pentru a fi adevărat’, din perspectiva mea. Pentru punctul 2 este puțin mai complicat. Informația din fotografie este vizuală. Pentru cine cunoaște realitatea israeliană, fizionomiile și stilurile de îmbrăcăminte ale copiilor de aici, senzația de fals este imediată. Izbește și folosirea stereotipurilor. Băiatul poarta un turban/keffieh în stilul plasă de pește și de culori alb-negru, făcut celebru de liderul palestinian Yasser Arafat. Costumul său este total neadecvat climei din Palestina. Fetița este îmbrăcată într-un stil care aparține mai degrabă secolului al XIX-lea decât secolului XXI, din nou complet inadecvat climei, și poartă un medalion uriaș cu Steaua lui David, de dimensiuni pe care le poartă, poate, doar rabinii. Am aplicat și criteriul al 3-lea. Un search grafic cu Google Lens rezultă în imagini circulate pe rețelele sociale și în special pe aplicația cu profiluri profesionale LinkedIn. O fotografie autentică ar trebui să aibă o sursă detectabilă și o menționare de copyright în cazul în care autorul o protejează. Nu am găsit așa ceva. Imaginea pare trucată sau regizată, în cel mai bun caz. Poate chiar creată cu ajutorul unui program dotat cu Inteligență Artificială? Am aplicat aici un al patrulea criteriu. Examinând mai atent fotografia, am avut impresia că detectez efectul unuia dintre ‘bug’-urile curente ale multor aplicații grafice AI: redarea ne-naturală a formei mâinilor și în special a degetelor. Poziția mâinii stângi a fetiței pare imposibilă. Să fie clar – mă identific total cu mesajul pacifist al postării. Cauzele bune însă nu sunt bine servite de informații sau imagini false.
(sursa imaginii: https://www.vincentvangogh.org/sower-at-sunset.jsp)
Fake news este un fenoment etichetat recent, dar propaganda electorală bazată pe informații false este probabil la fel de veche precum democrația. Dezinformarea nici nu este măcar nici apanajul exclusiv al politicii. Calomnia este subiectul uneia dintre cele mai faimoase arii din ‘Bărbierul din Sevilla’ al lui Rossini, unul dintre marile succese ale operei din secolul al XIX-lea, cu un libret bazat pe comedia lui Beaumarchais din secolul al XVIII-lea. Apariția Internetului și răspândirea fără precedent a rețelelor sociale a fost cea care a amplificat și acest fenomen negativ. Amil Khan este un fost jurnalist care acum studiază dezinformarea și care este fondatorul firmei Valent Projects, al cărei motto este ‘Să învingem dezinformarea’, având ca scop descoperirea, monitorizarea și contracararea dezinformării în timp real, folosind Inteligența Artificială. El explica (citat într-un articol din săptămânalul The Economist) faptul că, timp de mulți ani, modul standard de a genera dezinformări era folosirea a sute sau mii de conturi de social media, controlate de un singur software, pentru a difuza același mesaj sau link, crescând popularitatea și accelerând redistribuirea anumitor postări. La scară largă, acest ‘comportament neautentic coordonat’ (Coordinated Inauthentic Behavior – CIB) poate păcăli algoritmii de pe o rețea socială, cum ar fi Facebook sau X, făcându-i să creadă că există un interes sau sprijin pentru un anumit punct de vedere. Algoritmul promovează apoi acele postări către utilizatori reali, care le pot împărtăși în continuare propriilor urmăritori. Începând cu anul 2022, se înregistrează o creștere spectaculoasă a numărului de surse de dezinformare. În doi ani, numărul lor a crescut de la 49 la 802, conform organizației americane NewsGuard, care monitorizează dezinformarea. Unele sunt camuflate în mod subtil în agenții de presă. Un exemplu menționat în articol este DC Weekly, un site de știri aparent american, care însă își are originea în Rusia, și ca filieră, site-uri de știri africane. Acestea au generat – de exemplu – o campanie de ‘fake news’ având-o ca țintă pe Olena Zelenska, soția președintelui Ucrainei. Folosind canale multiple și aparent independente (agenții de știri, rețele sociale, YouTube), autorii atacului au inventat o pretinsă partidă de cumpărături de lux la New York a acesteia. Amil Khan numește conturile și site-urile care plantează poveștile ‘semănători’ (‘seeders’). În loc să folosească sute de conturi false pentru a promova materialele acestor site-uri, distribuția se bazează în schimb pe câteva așa-numite ‘distribuitoare’ (‘spreaders’) – conturi de rețele sociale cu un număr mare de urmăritori. Distribuitoarele își formează de obicei, la început, un număr de urmăritori postând despre sport sau vedete feminine. Apoi, treptat, încep să amestece dezinformarea de la semănători, prin link-uri sau repostând conținutul lor.
(sursa imaginii: https://www.maastrichtuniversity.nl/events/about-fake-news-social-sharing-and-their-blind-spots)
Inteligența artificială îi ajută pe generatorii de dezinformație, dar și pe apărători. Valent Projects este unul dintre ei. Cum să distingi între postările virale autentice și cele create artificial? Identificarea semănătorilor și a distribuitoarelor nu este o sarcină ușoară. Ele propagă o anumită narațiune, dar articolele și postările ‘de însămânțare’, precum și postările de răspândire care le promovează pot folosi cuvinte diferite. Valent încearcă să rezolve această problemă apelând la AI: sistemul său, numit Ariadne, preia dialoguri de pe platformele sociale și caută narațiuni și sentimente comune, pentru a identifica acțiuni neobișnuite și coordonate. Spre deosebire de abordările anterioare bazate pe cuvinte-cheie, cele mai recente modele ne permit identificarea sentimentelor, ceea ce nu era posibil înainte. Exactitatea aprecierilor este estimată la 94%. Nu este o cifră perfectă, dar este una mai bună decât a majorității evaluatorilor umani. DARPA, organizația de cercetare a proiectelor speciale a Ministerului Apărării al Statelor Unite, a finanțat cercetarea în ‘detectarea, atribuirea și caracterizarea de mass-media manipulate și sintetizate’ ca parte a unui program de ‘medicină legală semantică’, pentru a crea un set de instrumente de apărare. În martie, a publicat un depozit open-source cu mai multe dintre proiectele pe care le-a finanțat, cu link-uri către codul sursă ce poate fi descărcat. Scopul său este de a încuraja utilizatorii din universități și pe cei comerciali să combine, să îmbunătățească și, în cele din urmă, să implementeze aceste instrumente, bazate toate pe AI.
(sursa imaginii: https://revealnews.org/podcast/fancy-galleries-fake-art/)
Falsurile nu au întotdeauna ca scop dezinformarea. În fapt, unul dintre domeniile cele mai rentabile este arta. De ce nu ar profita de aceste progrese și falsificatorii de artă, folosind ca unelte avansate programe AI? Deja cu câțiva ani în urmă au făcut senzație falsurile generate prin metode AI ale unor presupuse lucrări ale pictorului american Jean Michel Basquiat. De atunci s-au perfecționat și capacitățile de învățare și interpretare a informației vizuale, și cele de generare a imaginilor asociate aplicațiilor AI. Cel de-al treilea și ultimul exemplu din acest articol aparține domeniului artei. Un (alt) prieten de pe Facebook a postat cu câteva zile în urma o imagine generată de botul său AI, căruia i-a dat ca temă să genereze un tablou bazat pe studierea imaginilor cu lucrări ale lui Salvador Dali. Rezultatul a fost imaginea unei femei într-un peisaj deșertic, în părul căreia deslușim imaginea unei cămile cu tot felul de obiecte și imagistică aparținând spațiului orientalismului. Multe dintre comentarii au caracterizat tabloul din postare drept ‘kitsch’, iar în altele autorii s-au jurat că ar fi detectat imediat că este vorba despre o invenție AI. Eu am fost mai prudent. Am scris că nu sunt nici un mare fan Salvador Dali și nici un expert în autenticitatea operelor de artă. Dacă postarea ar fi susținut că este vorba despre un Dali autentic și inedit descoperit într-un pod, nu sunt sigur că nu m-aș fi lăsat păcălit. Probabil că aș fi fost destul de suspicios pentru a nu prelua și posta imaginea, dar până când testul de autentificare a informației pe rețea nu ar fi indicat clar falsul, nu m-aș fi pronunțat nici contra. Morala, în final, constă în ideea că este bine să lăsăm întotdeauna experții să-și spună părerea și să le luam în considerare opiniile. Lupta dintre adevăr și fals, dintre informare și dezinformare, dintre autenticitate și imitație continuă și se intensifică în epoca AI. Vestea bună este că aplicațiile AI însele ne pot fi aliați.
Notă: Nu am inclus imagini ale celor trei exemple de probabile falsuri descrise în articol. Mărturisesc că am ezitat și am decis să nu o fac. În definitiv, chiar cu eticheta de avertizare atașată, un fals rămâne un fals. Am hotărât să evit să devin un răspânditor de falsuri. Uneori, când sunt dubii, nu sunt dubii.
(Articolul a apărut iniţial în revista culturală ‘Literatura de Azi’ – http://literaturadeazi.ro/)