Keqinformimi është në rritje. Si vepron ai? Duke e kuptuar më mirë, mund ta luftojmë më mirë, shkruan The Economist
Në janar 2024, në prag të zgjedhjeve në Tajvan, në platformat sociale si YouTube, Instagram, X dhe të tjera, u shfaqën me qindra postime dhe video me titull “Historia sekrete e Tsai Ing-wen”.
Prezantuesit e lajmeve, që flisnin në gjuhën angleze dhe kineze, hodhën një sërë akuzash të rreme për zonjën Tsai, presidenten në largim, dhe partinë e saj.
Ditën e zgjedhjeve, më 13 janar, nisi të qarkullonte në internet një videoklip ku Terry Gou, një kandidat që kishte hequr dorë nga gara në nëntor, shpallte mbështetjen për kandidatin e partisë KMY, që është miqësore me Kinën (në fakt, zoti Gou nuk ka dhënë asnjë mbështetje të tillë).
Këto video me siguri janë krijuar duke përdorur Inteligjencën Artificiale, dhe janë postuar nga grupe propagandistike të mbështetura nga shteti kinez, të njohura me emrat Spamouflage, Dragonbridge dhe Storm-1376.
Në një raport të lëshuar më 5 prill, ekipi i Inteligjencës së Kërcënimeve në Microsoft, tha se kjo ishte hera e parë që një shtet po përdorte materiale të krijuara me Inteligjencë Artificiale, për të ndikuar në zgjedhjet e huaja.
Prezantuesit e lajmeve në video janë krijuar duke përdorur aplikacionin CapCut, i prodhuar nga ByteDance, që është kompania kineze e cila zotëron aplikacionin TikTok.
Në kulmin e popullaritetit, videot po shpërndaheshin rreth 100 herë në minutë, por u gjetën me shpejtësi dhe u hoqën nga rrjeti. Në përgjithësi, janë parë nga pak njerëz.
Por ka shumë mundësi që Kina ta përdorë Tajvanin si një vend prove për planet që ka në mendje në të ardhmen, tha një zyrtar tajvanez për gazetën Taipei Times.
Zgjedhjet e Tajvanit janë një shenjë e gjërave që do të vijnë në të ardhmen, sepse Inteligjenca Artificiale po rrit keqinformimin (që nënkupton të dhëna të sajuara me synimin për të mashtruar dhe përhapur propagandë).
Mediat sociale të vendit janë përmbytur me një nga nivelet më të larta në botë të keqinformimit që vijnë nga qeveritë e huaja (shih grafikun). Mediat sociale amerikane po vuajnë gjithashtu nga kjo dukuri.
Në një vit kur do të mbahen zgjedhje në gjysmën e botës dhe ku teknologjia e re po e bën më të lehtë se kurrë krijimin dhe përhapjen e keqinformatave, është urgjente nevoja që qeveritë, kompanitë dhe individët në mbarë botën të përballen me këtë problem.
Ekspertët e sigurisë po ngrenë gjithashtu alarmin.
Së fundmi, mbi 1400 prej tyre u ankuan në Forumin Ekonomik Botëror se keqinformimi dhe informacione të rreme që shpërndahen padashur ishin rreziqet më të mëdha globale në dy vitet e ardhshme, madje më të rrezikshme se lufta, moti i skajshëm, ose inflacioni.
Mjegulla e luftës së keqinformimit
Nuk dihet ende saktësisht se sa i përhapur është keqinformimi dhe si u jep ai formë mendimeve dhe sjelljeve të njerëzve. Sidoqoftë, studiuesit kanë filluar të kuptojnë se si funksionojnë rrjetet e keqinformimit dhe po zhvillojnë mënyra për t’i spikatur dhe për t’i kontrolluar ato.
Disa shtete, si Tajvani, Suedia dhe Brazili, kanë zbatuar politika për të luftuar këtë problem, të cilat mund të jenë të dobishme edhe për shtetet e tjera.
Ky artikull fillimisht do të shpjegojë se si funksionojnë fushatat e keqinformimit. Ai do të shqyrtojë rolin e Inteligjencës Artificiale, si në anën negative (me krijimin e keqinformimit) ashtu edhe në atë pozitive (gjurmimi dhe zbulimi i tij).
Gjithashtu do të vlerësojë mjetet dhe politikat që po zhvillohen për të luftuar këtë problem.
Keqinformimi mund të marrë shumë forma dhe të ndikojë në shumë fusha. Amil Khan, ish-gazetar që tani studion keqinformimin, thotë se për shumë vite ishte zakon që të përdoreshin me qindra apo mijëra llogari në mediat sociale, që kontrolloheshin nga një pjesë e vetme e softuerit, dhe nxirrnin të njëjtin mesazh, i cili “pëlqehej” ose rishpërndahej kudo.
Kjo “sjellje e pazakontë dhe e koordinuar” mund të mashtrojë algoritmet në një rrjet social si Facebook ose X, duke krijuar idenë se ka një interes ose mbështetje të madhe për një këndvështrim të caktuar.
Për rrjedhojë, algoritmi i reklamon këto postime te përdoruesit e vërtetë, të cilët më pas mund t’i ndajnë me ndjekësit e tyre.
Një taktikë e tillë keqinformimi, e analizuar nga firma e zotit Khan, Valent Projects, kishte në shënjestër kompaninë koreanojugore Daewoo.
Pasi Daewoo lidhi një kontratë ndërtimi me vlerë 2.6 miliardë dollarë me qeverinë irakiane, ajo u sulmua nga rrjetet kineze të keqinformimit, të cilat përhapën histori të rreme rreth kompanisë, në përpjekjen për të anuluar kontratën e saj dhe për t’ia dhënë atë një kompanie kineze.
U përhapën akuza të rreme se kompania Daewoo kishte gisht në një komplot perëndimor për të shfrytëzuar burimet e Irakut. U sajuan komente nga zyrtarë amerikanë, si dëshmi se Amerika po përpiqej të zhvlerësonte marrëdhëniet kinezo-irakiane.
Akuza të tilla u hodhën poshtë nga grupet e verifikimit të fakteve, me seli në Irak dhe Katar, por kjo nuk e pengoi përhapjen e tyre.
Operacione të tilla keqinformimi janë mjaft të lehta për t’u dalluar. Kompania Meta tani i mbyll rrjete të tilla mjaft shpejt, thotë zoti Khan (ndërsa platforma X është më e ngadaltë).
Në raportin e fundit mbi keqinformimin, i publikuar në shkurt, Meta përshkruan tre operacione të tilla, në Kinë, Mianmar dhe Ukrainë. Raporti vë në dukje se rrjetet e keqinformimit që shënjestronin Ukrainën ishin të thjeshta për t’u gjurmuar dhe pas tyre fshiheshin shërbimet e inteligjencës ruse.
Megjithatë, që nga viti 2022, fushatat e keqinformimit kanë marrë një formë të re. Ato drejtohen nga “entitete të mohueshme” si kompanitë e marketingut, që nuk kanë lidhje të drejtpërdrejta shtetërore, dhe postojnë në një sërë rrjetesh sociale dhe platformash, duke krijuar faqe të tëra të rreme interneti.
Sipas NewsGuard, një organizatë amerikane që ndjek keqinformimin, që nga maji 2023, numri i mediave të krijuara nga Inteligjenca Artificiale, që shpërndajnë informacione mashtruese, është rritur nga 49 në 802.
Këto faqe kryesisht përmbajnë artikuj të padëmshëm, të krijuar nga Inteligjenca Artificiale, por me të dhëna të përziera, duke ndërthurur të vërteta me informacione të rreme.
Një shembull është faqja e internetit DC Weekly, e cila duket si një faqe tipike amerikane, por që ka pasur një rol qendror në fushatën e keqinformimit të udhëhequr nga Rusia, duke pretenduar për shembull, se zonja e parë e Ukrainës, Olena Zelenska, kishte shpenzuar 1.1 milionë dollarë duke bërë blerje në Fifth Avenue, Nju Jork.
Kjo histori, e cila u gjurmua nga studiuesit në Universitetin Clemson, nisi me një video në YouTube, më pas kaloi nëpër disa faqe interneti të lajmeve afrikane dhe një faqe të krijuar nga Inteligjenca Artificiale, derisa u shpalos nëpër mediat sociale duke u nxitur nga propaganda ruse. Ajo u shpërnda 20,000 herë në X (Twitter).
Zoti Khan i quan “mbjellës” këto llogari dhe faqe që mbjellin historitë e rreme. Në vend që të përdorë qindra llogari të rreme për të reklamuar materialet e këtyre faqeve, shpërndarja mbështetet në disa të ashtuquajtur “përhapës”, që janë llogari të mediave sociale me një numër të madh ndjekësish.
Llogaritë përhapëse zakonisht krijojnë popullaritet duke postuar për futbollin ose duke shfaqur gra të zbuluara. “Pastaj e ndryshojnë natyrën e postimeve”, thotë zoti Khan.
Fillojnë të shpërndajnë informacionet e rreme nga “mbjellësit”, duke ripostuar përmbajtjen e tyre.
Raporti nga Meta në nëntor 2023, vuri në dukje se llogaritë kineze funksiononin në më shumë se 50 platforma online “dhe kryesisht krijonin përmbajtje nëpër forume si Medium, Reddit dhe Quora, përpara se ta shpërndanin atë përmbajtje në platformat e tjera kryesore”.
Shitja e llogarive
Në shtetet e varfra ku meshkujt e rinj nuk kanë shumë mundësi punësimi, është zhvilluar një industri e posaçme për ndërtimin e llogarive shpërndarëse online dhe më pas shitjen e tyre tek aktorë keqdashës, pasi llogaritë kanë arritur 100,000 ndjekës, thotë zoti Khan.
Është e vështirë të spikaten këta përhapës keqinformimi, sepse në fillim, sjellja e tyre duket e natyrshme dhe nuk veprojnë si autorë të keqinformimit, por thjesht si shpërndarës të tij.
Llogaritë e përhapjes së keqinformimit, mund të vazhdojnë të postojnë për gjëra të tjera, duke përzier herë pas here edhe keqinformimin, për të shmangur zbulimin.
Kjo është vënë re më së shumti në përpjekjet e Rusisë për të përhapur keqinformata në shtetet europiane, si dhe për të reklamuar ideologjinë e së djathtës së skajshme në Britani.
Për shembull, së fundmi, llogari të tilla përdorën postime thashethemesh për familjen mbretërore britanike, për të tërhequr ndjekës, dhe më pas, nisën propagandën politike se si “lagjet me trafik të ulët” (zonat ku shkurajohet trafiku) janë një komplot globalist.
Në mënyrë të ngjashme, kompania Microsoft ka raportuar se përdoret një model i ri i shpërndarjes së keqinformimit, i quajtur Storm-1376, i cili ka përhapur të dhëna të rreme për zjarret në Hawai (duke pretenduar se ka gisht SHBA-ja), për të nxitur kritika ndaj qeverisë japoneze në Korenë e Jugut dhe për të përhapur teori komploti rreth një treni që doli nga shinat në Kentucky, në nëntor 2023.
Kur përdoren shumë llogari për të përhapur të njëjtin informacion të rremë, zbulimi është i lehtë. Nuk është e pazakontë në mediat sociale që një temë e caktuar të fitojë papritur popullaritet, në gjuhë të ndryshme, ose e postuar nga llogari që duket se përqendrohen në lajme në mbarë botën…
Në mënyrë të ngjashme, gjuetarët e keqinformimit mund të shqyrtojnë grupe llogarish që japin një mesazh të ngjashëm.
Llogaritë e dyshimta mund të kenë të gjitha të njëjtën datë krijimi, të njëjtin numër ndjekësish ose të njëjtin raport të ndjekësve ndaj atyre që ndjekin (sepse kanë blerë ndjekës të rremë në përpjekjen për t’u dukur si autentikë).
Por zbulimi i mbjellësve dhe përhapësve sipas modelit më të ri të shpërndarjes është më i vështirë. Ata përhapin të njëjtën histori, por artikujt dhe postimet e mbjella, dhe postimet shpërndarëse që i reklamojnë ato, mund të përdorin të gjithë formulime të ndryshme.
Valent po përpiqet ta zgjidhë këtë problem duke përdorur Inteligjencën Artificiale.
Sistemi i tij, i quajtur Ariadne, merr burime nga platformat sociale dhe kërkon të dallojë veprime të pazakonta dhe të koordinuara.
Ndryshe nga qasjet e mëparshme të mbështetura në fjalë kyçe, “modelet e fundit na lejojnë të punojmë mbi përshtypjet, gjë që nuk mund ta bënim më parë”, thotë zoti Khan.
Një mënyrë tjetër për të zbuluar llogaritë shpërndarëse, përshkruhet në një dokument pune të kohëve të fundit nga instituti kërkimor Brookings, me seli në Uashington.
Në këtë studim kanë punuar Mariam Saeedi, një ekonomiste në Universitetin Carnegie Mellon, dhe kolegët e saj, duke analizuar 62 milionë postime në X, të shkruara në persisht, në lidhje me valën e protestave antiqeveritare në Iran, që nisi në shtator 2022.
Analiza u përqendrua në llogaritë përhapëse (kërkuesit i quajnë ato “llogari mashtruese”) që e nisën veprimtarinë e tyre duke u shtirur sikur ishin në anën e protestuesve, por më pas filluan të postonin të dhëna të rreme me qëllim për të zhvlerësuar protestat.
Studiuesit filluan duke gjetur disa qindra llogari mashtruese. Më pas trajnuan një algoritëm klasifikues, për të gjetur më shumë llogari mashtruese me karakteristika të ngjashme, duke u mbështetur në veprimtarinë e postimit, modelin e ndjekësve, përdorimin e hashtag-ëve, kohën e krijimit, etj.
Më pas studiuesit ishin në gjendje të spikatnin këto llogari mashtruese, me një saktësi prej 94%, vetëm përmes analizës së rrjetit, d.m.th., duke shqyrtuar vetëm marrëdhëniet e tyre me llogaritë e tjera, dhe jo përmbajtjen e postimeve.
Sipas studiuesve, kjo tregon se është e mundur që të spikaten “llogaritë me një prirje të lartë për t’u përfshirë në fushata keqinformimi, edhe para se ta kenë bërë këtë”.
Ata thonë se platformat e mediave sociale mund të përdorin këto lloj metodash të analizës së rrjetit, për të llogaritur një “rezultat propagandistik”, duke treguar nëse llogaritë kanë të ngjarë apo jo të jenë një burim keqinformimi.
Algoritmi i zbulimit të llogarive mashtruese mund të përmirësohet edhe më shumë, duke përdorur forma më të përparuara të Inteligjencës Artificiale.
Kompanitë e teknologjisë dhe agjencitë e inteligjencës, pa dyshim që po e bëjnë këtë lloj analize, edhe pse, sigurisht që nuk duan të japin hollësi në lidhje me metodat e tyre.
Meta thotë se prej vitesh, ka përdorur Inteligjencën Artificiale në “sistemet e integritetit”, për të mbrojtur përdoruesit dhe për të imponuar zbatimin e rregullave.
Por si akademikët, ashtu edhe grupet e shoqërisë civile, thonë se nuk mund të përdoret asnjë metodë e vetme për të zbuluar automatikisht të gjitha keqinformatat.
Shpesh përdoren taktika të veçanta për fushata të veçanta dhe analistët më pas kontrollojnë rezultatet, duke dhënë interpretim dhe nuancë.
Inteligjenca Artificiale mund të ndihmojë edhe në një mënyrë tjetër. Ajo mund të dallojë drejtpërdrejt një përmbajtje online mashtruese, nëpërmjet analizës së postimeve, artikujve, klipeve zanore ose videove individuale.
DARPA, krahu i kërkimit i Departamentit Amerikan të Mbrojtjes, ka financuar kërkime në “zbulimin dhe karakterizimin e mediave të manipuluara dhe të sintetizuara”, për të krijuar një kuti mjetesh mbrojtëse.
Qëllimi i tij është të nxisë përdoruesit akademikë që të ndërthurin, përmirësojnë dhe në fund të përdorin këto mjete, të cilat mbështeten në inteligjencën artificiale.
Edhe pse një mjet i vetëm analitik mund të mos jetë gjithmonë i besueshëm, ndërthurja e disave prej tyre, mund të përmirësojë shumë saktësinë.
Për shembull, për të kuptuar nëse video e një politikani është e vërtetë apo jo, përdoren të dhëna të vërteta të njeriut në fjalë, për të trajnuar një model të Inteligjencës Artificiale që të mësojë veçoritë e politikanit, si për shembull, zakonet e animit të kokës ose lëvizjet e fytyrës kur ai/ajo flet.
Këto të dhëna më pas mund të përdoren për të analizuar një video që dyshohet se është e rreme.
Dr. Corvey shpjegon se do të ishte edhe më mirë, nëse do të ndërthureshin teknika të tjera zbulimi, si dallimi i rrahjeve të zemrës në video, gjë që është shumë e vështirë të falsifikohet. (Rrahjet e zemrës mund të dallohen duke kërkuar për ndryshime të vogla në nuancën e lëkurës, veçanërisht në zonën e ballit).
Mjete të tjera të krijuara nga DARPA janë në gjendje të dallojnë fjalët e thëna, të sajuara me inteligjencë artificiale, imazhe të sintetizuara ose të manipuluara, si dhe audio dhe video të rreme.
Nëse fjalët e thëna dalin të rreme, sigurisht që edhe video shoqëruese do të jetë gjithashtu e rreme.
DARPA nuk është i vetmi institucion që ka bërë përpjekje në këtë drejtim. Oren Etzioni, shkencëtar kompjuterik dhe ish-kreu i Institutit Allen për Inteligjencën Artificiale, themeloi në janar grupin fitimprurës me emrin TrueMedia.org, për të zgjeruar qasjen në mjetet e zbulimit.
Më 2 prill, grupi paraqiti një faqe interneti që bashkon mjetet me burim të hapur dhe mjetet e disponueshme komerciale, për zbulimin e videove, audiove dhe imazheve sintetike ose të manipuluara, duke përdorur mjete të shumta në të njëjtën kohë.
Për sa i përket përmbajtjes negative, Inteligjenca Artificiale, mund të shërbejë njëkohësisht si shpatë dhe si mburojë.
Dr. Corvey thotë se është optimist se mjetet mbrojtëse ndaj keqinformimit, që funksionojnë me Inteligjencë Artificiale, do të jenë më të fuqishme se Inteligjenca Artificiale që përdoret për të përhapur keqinformim.
Dr Howard, nga Universiteti i Oksfordit, pajtohet me këtë ide. Të paktën tani për tani, firmat e teknologjisë mund të dallojnë video të rreme në mënyrë mjaft të besueshme, thotë ai, “ndonëse nuk e di a do mund ta bëjnë këtë përgjithmonë”.
Renée DiResta që studion mënyrën e përhapjes së informacionit në Universitetin Stanford është më pak e bindur. Mjetet e sotme të zbulimit mund të funksionojnë mjaft mirë në një mjedis të kontrolluar, kur ka mjaftueshëm kohë për të bërë një vlerësim, thotë ajo.
Por kur duhen bërë gjykime të shpejta aty për aty, “nuk mendoj se mjetet mbrojtëse janë në nivelin e duhur”. Për më tepër, ajo vëren se ka një problem shumë më të thellë.
Edhe nëse mediat me synime mashtruese mund të zbulohen me saktësi të përsosur, jo të gjithë do të besojnë se një video e rreme është me gjithë mend e rreme.
Ajo jep si shembull videoklipet e rreme që u bënë virale pak kohë para zgjedhjeve në Sllovaki në shtator 2023, ku një politikan gjasme bisedonte me një gazetar për manipulimin e zgjedhjeve. Më vonë politikani në fjalë i humbi zgjedhjet.
“Njerëzit shpesh këmbëngulin që të besojnë ato fakte që pëlqejnë dhe i bëjnë qëndresë kontrollit të informacionit”, thotë ajo. Kjo do të thotë se luftimi i keqinformimit do të kërkojë shumë më tepër sesa thjesht teknologji.
Përktheu: Lira Muça