Ne kemi kaluar kohën ku një sy i patrajnuar mund të dallojë imazhet ose videot e krijuara nga inteligjenca artificiale, të njohura gjerësisht si “deep fake” – falsifikime të thella . Duket se po zhvendosemi në një kohë ku do të bëhet më e vështirë të dallojmë të drejtën nga e gabuara, të mirën nga e keqja, sepse do të jemi mësuar të konsumojmë opinionin dhe jo faktin.
Nga Michael Wilkowski
Kapitulli i fundit i franshizës “Indiana Jones” përmban një sekuencë hapëse të zgjeruar ku luan Harrison Ford (81 vjeç) i cili është falsifikuar si i ri, aq realist sa mund të dyshohet se krijuesit e filmave kanë udhëtuar në vitet ’80.
Imazhet e mediave sociale të një shpërthimi të supozuar në Pentagon në maj ngritën frikën për një tjetër 9/11 dhe në fakt shkaktuan një shitje në treg përpara se të ekspozoheshin si falsifikime. Më thjesht, ne jemi duke u trajnuar për të pranuar se nuk mund t’u besojmë syve tanë.
Por ndërsa mediat kryesore dhe mendimtarët kanë bërë shumë për të nxjerrë në pah rreziqet e këtyre imazheve, pak vëmendje i është kushtuar problemit të tekstit thellësisht të falsifikuar, i cili nuk është i ri dhe ka ekzistuar qetësisht me ne për shumë vite.
Gjatë dekadës së fundit, unë kam punuar si shef i teknologjisë në Silent Eight, një kompani që përdor inteligjencën artificiale (AI) për të ndihmuar institucionet financiare dhe bankat si HSBC, First Abu Dhabi dhe Standard Chartered të luftojnë krimin financiar.
Pjesa më e madhe e asaj që bëj, si inxhinier dhe biznesmen, përfshin interpretimin dhe gjenerimin e tekstit.
Rrjedhimisht, i zhgënjyer kam vërejtur se si efektiviteti i algoritmeve dhe mësimi i makinerive të kompanive më të mëdha të teknologjisë vetëm sa ka ndihmuar në përkeqësimin e këtij problemi.
Kur përdora internetin për herë të parë në fund të viteve 1990, ishte emocionuese kur kuptova se po fitonim akses tek gjithë këta njerëz dhe dritare për botë të ndryshme. Ndoshta gjëja më interesante ishte ndjenja e paanësisë. Të gjithë, pavarësisht vendndodhjes, merrnin të dhënat e njëjta.
Por tani bota ka ndryshuar plotësisht, sepse çdo faqe interneti që aksesoni kontrollon vendndodhjen tuaj, rregullimet e tastierës, gjuhën e preferuar, zonën kohore dhe adresën e protokollit të internetit. Kjo mund të krijojë një përvojë të ndryshme për çdo përdorues, e cila mund të jetë e dobishme kur bëhet fjalë, të themi, për blerjet e personalizuara.
Por sapo softueri i një faqe interneti zbulon adresën tuaj, ai ndërton një grafik të lidhjeve tuaja, ju klasifikon si pjesë e një komuniteti dhe fillon t’ju shërbejë lajme të rëndësishme për atë komunitet specifik – lajme që algoritmi i gjykon të rëndësishme.
Tani nuk ka nevojë të kërkoni informacion. Thjesht hapni telefonin ose tabletin tuaj dhe lëvizni poshtë burimin tuaj të lajmeve të preferuar. Edhe përdorimi i një rrjeti privat virtual nuk do të maskojë plotësisht vendndodhjen tuaj, pasi softueri ka të ngjarë të kontrollojë datat dhe oraret e përdorimit tuaj të internetit për të identifikuar vendndodhjen tuaj nga zona juaj kohore.
Në këto rrethana, është shumë e vështirë për njerëzit që të shmangin kategorizimin dhe “silodimin” në një flluskë mediatike ku marrin vetëm lajme që konsiderohen të rëndësishme për komunitetin e tyre specifik. Këta algoritme bëhen më të afta sa herë që ju pauzoni – duke mësuar se çfarë ju intereson, çfarë klikoni dhe çfarë ju anashkaloni.
Megjithatë, nëse jeni në gjendje të operoni nga një vendndodhje tjetër, menjëherë do të filloni të merrni një përgjigje tjetër dhe përmbajtja në burimin tuaj të lajmeve do të ndryshojë.
Një pasojë e këtij inxhinierimi nga chatbot-et e kompanive më të mëdha të teknologjisë është se nëse filloni të lexoni diçka për Partinë Demokratike në Amerikë, për shembull, softueri do të vazhdojë të ofrojë informacione për demokratët dhe nuk do t’ju tregoj asgjë për partinë opozitare.
Pra kështu, nëse filloni të lexoni diçka për republikanët, nuk ka gjasa të shihni shumë lajme për demokratët në burimin tuaj. Rezultati përfundimtar është se ne përfundojmë duke marrë shumë lajme të ngjashme dhe shumë të filtruara në burimet tona.
Pra kjo është mënyra se si teksti i falsifikuar thellësisht ndikon në jetën tonë të përditshme.
Këto algoritme janë bërë të shkëlqyera për të mësuar profilet tona dhe për të na ushqyer me përmbajtje përkatëse. Rrjedhimisht, ne jemi lidhur shumë me ta, gjë që vetëm inkurajon procesin dhe e bën më të vështirë daljen nga komunitetet dhe flluskat mediatike në të cilat jemi renditur.
Ndonëse kjo mund të mos duket të jetë shqetësim i menjëhershëm, varësia jonë nga këto teknologji ka implikime serioze për të ardhmen. Unë besoj se gjatë 10 viteve të ardhshme, njerëzit do të ndalojnë së vizituari dhe lexuari faqet e internetit, dhe gazetaria profesionale dhe punët e redaktimit do të zhduken.
Shumica e njerëzve do të shohin vetëm se çfarë ka në burimet e tyre dhe një model gjenerues i Intelegjencës Artificiale si ChatGPT do të ndihmojë në prodhimin e përmbledhjeve bazuar në profilet dhe kërkesat e tyre. Por njerëzit nuk do ta kenë idenë nëse lajmet në burimin e tyre janë të vërteta apo rreme, të krijuara nga kompjuteri ose të prodhuara nga një njeri.
Për momentin, kompanitë më të mëdha të teknologjisë (Apple, Meta, Amazon, Google dhe Microsoft) vazhdojnë të luftojnë kundër përhapjes së përmbajtjeve të të falsifikuara nga robotët që sillen si njerëz.
Por ky mund të jetë potencialisht një treg fitimprurës. Pra, në vend që të përpiqen të ndalojnë njerëzit që të mos bëjnë falsifikime të thella përfundimisht, ata ndoshta do t’i inkurajojnë njerëzit t’i prezantojnë ato – thjesht përdorni një faqe të caktuar programimi dhe paguani një tarifë të vogël.
Kur të arrijmë atë fazë, do të jetë e pamundur të dallojmë nëse informacioni që ne marrim vjen nga një bot.
Politikanët do ta pëlqejnë këtë, sepse këto mjete ndihmojnë për të krijuar mesazhe me ndikim. Kompanitë që synojnë të dhënat si Cambridge Analytica, SCL Elections dhe AggregateIQ tashmë janë akuzuar për ndikim në fushatat politike dhe zgjedhje. Ardhja e chatbot-eve të autorizuara që shpërndajnë lajme thellësisht të falsifikuara thjesht do të rrisë fuqinë e tyre të bindjes.
Duket se po shkojmë në një kohë ku do të bëhet më e vështirë të dallojmë të drejtën nga e gabuara, të mirën nga e keqja, sepse do të jemi mësuar të konsumojmë opinionin dhe jo faktin.
Për momentin ende mund të dalloni përmbajtjen reale dhe atë të rreme, si shembulli i mëhershëm ku një aktor i plakur (81 vjeç) i filmave aksion është falsifikuar në moshë të re. Por së shpejti nuk do të jeni në gjendje të gjeni diferencat, sepse këto programe po bëhen më të zgjuara dhe më të sakta.
Megjithatë, mendoj se nëse arrijmë në atë kohë, ne do të jemi mësuar aq shumë me konceptin e përmbajtjes thellësisht të falsifikuar saqë as nuk do të na interesojë dhe as do ta vërejmë që nuk po komunikojmë më me njerëz.
Marrë nga “ The Hill”
Përktheu: Orges Zaimi