Dezinformacija i generisan tekst

09:54 04. 09. 2023. FoNet | Desk

BEOGRAD - Nova studija je potvrdila da je Čat-GPT- 3 , novi virtuelni sagovornik sa veštačkom inteligencijom, sposoban da širi onlajn dezinformacije brže i ubedljivije od ljudi, prenosi Demostat.

Ovakve situacije sada, više nego ikada ranije, otvaraju pitanje koliko je efikasna kontrola nad  informacijama i da li postoje državni mehanizmi kao alati za rešavanje problematičnih situacija?

Istraživanje, koji je nedavno objavljeno u recenziranom časopisu Science Advances, imalo je za cilj da identifikuje neke od glavnih pretnji koje napredni generatori teksta predstavljaju u digitalnom svetu, posebno u kontekstu dezinformacija i lažnih vesti na društvenim medijima.

"Naša istraživačka grupa je posvećena razumevanju uticaja naučnih dezinformacija i obezbeđivanju bezbednog angažovanja pojedinaca sa informacijama“, rekao je za Psypost autor studije Federiko Germani, istraživač na Institutu za biomedicinsku etiku i istoriju medicine.

Prema rečima autora studije, glavni cilj je ublažavanje rizika povezanih sa lažnim informacijama o individualnom i javom  zdravlju. 

Poava modela sa veštačkom inteligencijom kao što je GPT-3 podstakla je naše interesovanje za istraživanje kako veštačka inteligencija utiče na informacioni pejzaž i kako ljudi percipiraju informacije i dezinformacije i komuniciraju sa njima“, rekao je Germani.

GPT-3 je skraćenica od Generative Pre-trained Transformer 3, to je treća verzija programa koju je objavio OpenAI, a prvi model je izašao 2018 . Među bezbroj drugih veština obrade jezika, program je u stanju da oponaša stil pisanja onlajn razgovora, objašnjava studija.

Istraživači su istražili 11 tema za koje su smatrali da su podložne dezinformacijama – uključujući klimatske promene, Kovid -19, bezbednost vakcina i 5G tehnologiju. Da bi to uradili, autori studije su prikupili tvitove generisane veštačkom inteligencijom, koji se sastoje od lažnih i istinitih informacija, zajedno sa primerima stvarnih tvitova koji se odnose na iste teme.

Prema studiji, istraživači su zatim koristili ekspertsku analizu da bi utvrdili da li tvitovi generisani od strane  veštačke inteligencije ili ljudi sadrže dezinformacije i uspostavili podskup tvitova za svaku kategoriju na osnovu procena.

Istraživači su zatim sproveli anketu koristeći tvitove – od ispitanika je zatraženo da utvrde da li zamagljivanja  sadrže tačne informacije ili ne i da li ih je napisala ljudska ili veštačka inteligencija. Eksperiment je pokazao da su ispitanici bolje mogli da otkriju dezinformacije u "organski lažnim tvitovima" - što znači tvitovima koje su napisali ljudi, ali koji i dalje sadrže lažne informacije - nego u netačnim izjavama "sintetički lažnih " tvitova, koje je napisao GPT-3.

Studija dalje navodi da su ispitanici takođe bili manje sposobni da otkriju lažne informacije od  strane veštačke inteligencije nego od ljudi.

Istraživanje ,takođe,  potvrđuje da je ljudima teže da  procene tačne izjave u poređenju sa dezinformacijama, i da tekst koji generiše GPT-3 „ne samo da je efikasniji u informisanju i dezinformisanju ljudi, već to čini efikasnije, za kraće vreme."

Stojančo Tudžarski , šef tima za nauku o podacima u Inovejšn DOOEL, u izjavi domaćim medijima na ovu temu kaže da su automatski generatori teksta Četdžipiti i napredniji Džipiti-4 u stanju da kreiraju bilo koji tekst koji se ne može prepoznati da li je napisan od strane čoveka ili mašine, između ostalog i zbog toga što sa sadašnjim stepenom razvoja veštačke inteligencije, mašine su u stanju da izuzetno uspešno imitiraju ljudske pisane tekstove.

"To novinarsku profesiju stavlja u ne baš zavidnu poziciju. Svako, uz pomoć pravilno tempiranih upita, može dobiti prosečan tekst o bilo kojoj temi, uključujući i novinske članke. Dakle, suočeni smo sa realnom mogućnošću hiperprodukcije tekstova, u proseku, istog kvaliteta kao što su do sada pisali novinari, kaže Tudžarski.

Tudžarski naglašava da je linija između dezinformacija i automatski generisanog teksta tanka i da se dezinformacije ne mogu dovesti u korelaciju sa veštačkom inteligencijom.

"Ljudi su ti koji stvaraju dezinformacije, sa ili bez VI/Čatdžipiti-a. Po mom mišljenju, pravi izazov za novinare, da bi ostali relevantni kao profesionalci, jeste kako biti bolji od Čatdžipitija. A, po definiciji, mogu samo ako unesu stvarnu kreativnost u svoje pisanje jer tekstovi koje je napravio Četdžipiti su , u matematičkom smislu, ništa drugo do tekstovi koje bi napisalo prosečno ljudsko biće, uzimajući u obzir sve ljudske tekstove kojima je obučen  Četdžipiti .  Ili, prema rečima Noama Čomskog, „Čatdžipiti nije ništa drugo do veoma sofisticirana mašina za stvaranje masovnog plagijata, i ako neko danas zna o čemu govori na ovu temu, to je on“, kaže Tudžarski.

Uspon veštačke inteligencije je napravio  revoluciju u  različitim industrijama, uključujući medije i širenje informacija. Nažalost, ova tehnologija je takođe korišćena za manipulaciju informacijama i ovekovečenje lažnih vesti. Alati vođeni veštačkom inteligencijom sada mogu da generišu članke, slike i video zapise realnog zvuka koji se gotovo ne razlikuju od stvarnog sadržaja. Ovo omogućava zlonamernim akterima da kreiraju ubedljive narative koji su u stanju da zavaraju čak i pronicljive potrošače digitalnih medija.

Deepfake tehnologija sa veštačkom inteligencijom može da manipuliše video zapisima tako što stavlja lice jedne osobe na telo druge, efektivno stvarajući stvarni, ali potpuno izmišljeni sadržaj.

Generatori teksta vođeni veštačkom inteligencijom mogu da proizvedu koherentne i kontekstualno relevantne članke, gde čak ni novinari na prvo čitanje ne mogu da razlikuju stvarne i lažne vesti.

Napredni alati za uređivanje slika zasnovani na veštačkoj inteligenciji mogu da izmene vizuelni prikaz do te mere da bi čak i stručnjaci mogli da se bore da uoče da li  je munipulisano slikom .

Kako pretnja od lažnih vesti i dalje raste, pojavili su se različiti alati i tehnologije kako bi se suprotstavili njihovom  uticaju i potvrdili autentičnost digitalnih medija: 

Veb - stranice za proveru činjenica: Platforme kao što su Snopes, FactCheck.org i PolitiFact su posvećene proveravanju i razotkrivanju lažnih informacija, ali mnoge od ovih alatki zasnovanih na vebu su fokusirane na američko tržište.

Obrnuta pretraga slika i video zapisa: Alati kao što su Google Reverse Image Search i  InVID mogu pomoći korisnicima da identifikuju poreklo slika i video zapisa, pomažući da se otkrije izmanipulisani sadržaj. Edukacija o medijskoj pismenosti: Promovisanje medijske pismenosti i veština kritičkog razmišljanja pomaže pojedincima da postanu pronicljiviji potrošači informacija, čineći ih manje podložnim lažnim vestima. (kraj) dep/dj

Share: