Kako umetna inteligenca izdela prave novinarje, ki poročajo o lažnih zgodbah

Tehnologija Forbes 11. novembra, 2023 15.19 > 13. novembra, 2023 15.19
featured image

Po spletu se širijo lažne novice, ki se zdijo, kot da jih posredujejo vrhunski novinarji in televizijske mreže. To je prelomna točka za medije.

11. novembra, 2023 15.19 > 13. novembra, 2023 15.19

Voditeljica informativnega programa CBS Anne-Marie Green na začetku informativne oddaje reče: “Pogovarjamo se z edinim preživelim v nedavnem streljanju na šoli, tiktokerjem Krishno Sahayjem.”

“To je moralo biti zelo travmatično,« reče sogovornik v drugem videoposnetku Sahayu. “Kaj se je vsem podilo po glavi?” Sahay naredi premor, nato pa odgovori: “Krogle, seveda.”

V še eni objavi novice o streljanju na šoli, tokrat na mreži CNN, sogovornik vpraša Sahaya: “Kako ste to preživeli? Ste med streljanjem brali magazin ali kaj podobnega?”

“Bral? En magazin (nabojnik) sem izpraznil,” odgovori Sahay.

Porast navidezno resnični oddaj

Zvezda TikToka in YouTuba sodi med vse večje število uporabnikov družbenih medijev, ki s pomočjo generativne umetne inteligence in druge programske opreme ustvarjajo navidezno resnične novice z najboljšimi voditelji v največjih medijih – od Norah O’Donnell iz oddaje CBS Evening News do novinarjev na mrežah CNN, BBC in drugih televizijah.

Po zaslugi tehnologije so voditelji videti in zvenijo kot oni sami. Zaradi zmogljivih algoritmov platform se senzacionalne zgodbe in lažni naslovi z njihovimi imeni in podobo (ali logotipom novičarske postaje) širijo pod pretvezo verodostojnih novic.

Nedavno se je razširil videoposnetek dopisnice mreže CNN Clarisse Ward, ki se je skrivala pred raketami ob meji med Izraelom in Gazo, ter lažni zvočni posnetek, ki je spodkopaval njeno poročanje.

V začetku oktobra je po spletu krožil lažni posnetek, ki ga je ustvarila umetna inteligenca, na katerem sovoditeljica oddaje CBS This Morning Gayle King promovira izdelek, ki ga nikoli ni uporabljala ali zanj celo slišala.

Lažni videoposnetek (deepfake) voditelja televizije CNN Andersona Cooperja, ki je izjavil, “da nam je nekdanji predsednik Donald Trump pokazal vraga”, je nedavno postal viralen, potem ko sta ga Trump in njegov sin delila na družbenem omrežju Truth Social in na Twitterju (X).

Lažni oddaje z več gledalci kot resnične

Sahayeve domnevne informativne oddaje, ki so mu pomagale zbrati milijonsko občinstvo, so vključevale več kot ducat uglednih voditeljev z različnih televizijskih mrež, ki so podajali problematične komentarje in se pogovarjali z ustvarjalcem posnetkov, ki se je norčeval iz streljanja v šolah, terorističnih napadov 11. septembra, žrtev posilstev in drugih, ki so jih prizadeli kriminalci.

Eden od lažnih posnetkov iz oddaje Face The Nation je bil na TikToku všečkan več kot 300.000-krat, najbolj priljubljen, resničen videoposnetek, objavljen istega dne pa le 7.000 všečkov.

V številnih primerih ti izmišljeni segmenti, ki naj bi bili del programa resničnih televizijskih mrež, pritegnejo več gledalcev kot legitimni posnetki, objavljeni na preverjenih računih dnevno informativnih programov v družbenih medijih.

Eden od nedavnih Sahayevih lažnih posnetkov z Margaret Brennan iz oddaje Face The Nation je bil na primer na TikToku všečkan več kot 300.000-krat, medtem ko je najbolj priljubljen videoposnetek, objavljen istega dne na uradnem računu oddaje Face The Nation na TikToku, zbral le 7.000 všečkov.

Ko je Forbes poročal o tej zgodbi, je TikTok Sahayju prepovedal objavljanje. Na številne prošnje za komentar in podroben seznam vprašanj se ni odzval.

Kaj pravijo pri TikToku in YouTubu

Čeprav je njegov račun na TikToku začasno ugasnjen, je njegove posnetke z velikim dosegom še vedno mogoče najti na tej platformi, saj jih objavljajo drugi uporabniki, številni pa so še vedno dostopni tudi na YouTubu.

Večina velikih, osrednjih družbenih medijev ima pravila, ki prepovedujejo lažne posnetke. Tiskovna predstavnica TikToka Ariane Selliers je dejala, da družba TikTok od ustvarjalcev zahteva, da realistično vsebino, ki jo je ustvarila umetna inteligenca, posebej označijo ali dodajo pojasnilo.

Dodala je, da družba TikTok še naprej odstranjuje vsebine, ki lahko škodljivo zavajajo ali upodabljajo nekoga drugega. (Večina Sahayevih videoposnetkov ni vsebovala takšnega opozorila.)

TikTok je Sahayju, ki je na platformi bjavil številne lažne posnetke, prepovedal objavljanje (Foto: TikTok)

TikTok v svojem pravilniku navaja, da prepoveduje lažne posnetke, ki vsebujejo podobnost z običajnimi zasebniki. Ko gre za javne osebe, dovoljuje več svobode, vendar opozarja, da ne želi, da bi bile te predmet zlorabe, ali da bi bili ljudje zavedeni glede političnih ali finančnih vprašanj.

Tiskovna predstavnica YouTuba Elena Hernandez je dejala: “Že dolgo imamo pravila o dezinformacijah, s katerimi prepovedujemo vsebine, ki so bile tehnično prirejene ali prirejene na način, ki predstavlja resno tveganje, da bi nekomu povzročili hudo škodo.”

Pozivamo vse, naj v svetu, kjer je vse več dezinformacij, preverijo povezave in URL naslove, in se prepričajo, da dobivajo novice iz zaupanja vrednega vira.

Robin Miller, BBC

Tiskovna predstavnica mreže CNN Emily Kuhn ni želela komentirati segmentov lažnih novic, je pa dejala, da je prirejen zvok v posnetku dopisnice CNN blizu meje med Izraelom in Gazo “izmišljen, netočen in neodgovorno izkrivlja resničnost trenutka, ki ga je CNN prenašal v živo in ki bi si ga ljudje morali v celoti ogledati sami na zaupanja vredni platformi”.

O’Donnellova, voditeljica na mreži CBS, se na prošnjo za komentar ni odzvala, tiskovna predstavnica CBS News April Andrews pa je dejala, da CBS zelo resno jemlje svoje pravice, ko gre za intelektualno lastnino.

Tiskovna predstavnica mreže BBC Robin Miller je dejala: “Vsakič, ko izvemo za lažni video, naši odvetniki ukrepajo.

Ob tem vse pozivamo, naj v svetu, kjer je vse več dezinformacij, preverijo povezave in URL naslove, ter se prepričajo, da dobivajo novice iz zaupanja vrednega vira.”

Novo obdobje za lažne posnetke

Lažni posnetki in nizkoproračunski poceni ponaredki niso novost. Samo oktobra so jih uporabili za napad na vse, od Toma Hanksa (čigar dvojnik, izdelan z umetno inteligenco, je oglaševal zobozdravstveno zavarovanje) do vrhunskega ustvarjalca na YouTubu MrBeasta, ki naj bi prirejal največje brezplačno podeljevanje iPhona 15 na svetu.

Ali so platforme družbenih medijev pripravljene na pojav ponaredkov, izdelanih z umetno inteligenco? MrBeast, čigar pravo ime je Jimmy Donaldson, je nedavno opozoril na Twitterju (X), da je to resen problem. (Razkritje: Donaldson naj bi postal član Forbsovega upravnega odbora, ko bo zaključena načrtovana prodaja podjetja.)

Odbor za nadzor Facebooka je ta teden napovedal tudi postopek, povezan z manipuliranim videoposnetkom predsednika Joeja Bidena.

Ugledne novinarke in novinarji nova tarča

Vendar se zdi, da so prirejene novice, ki temeljijo na glasovih in obrazih uglednih novinarjev, novejši in potencialno nevarnejši pristop.

V začetku leta je podjetje Graphika, ki se ukvarja z analizo družbenih medijev, objavilo raziskavo o novi in značilni obliki video vsebin, ki jo je odkrilo na družbenih omrežjih Facebook, Twitter (X) in YouTube.

To so bili voditelji novic, ki jih je ustvarila umetna inteligenca in so bili del “prokitajskega političnega spama”. (Kitajski državni mediji so prav tako eksperimentirali z voditelji novic, ustvarjenimi z umetno inteligenco.)

Na različnih platformah pa se še naprej uveljavljajo daljši, bolj produkcijsko dovršeni lažni videoposnetki (deepfake), kot so nekateri segmenti novic, ki jih je ustvaril Sahay.

Morali bomo resneje zaščititi pravice ljudi, katerih podoba in glas sta bila zlorabljena.

Hany Farid, univerza Berkeley

“Videoposnetki voditeljev informativnih oddaj so prepričljivo sredstvo za posredovanje dezinformacij,” poudarja Hany Farid, profesor na Fakulteti za informacijsko tehnologijo univerze Berkeley, ki je pred kongresom pričal o lažnih posnetkih.

“V mnogih primerih gledalci voditelje poznajo in jim zaupajo, a tudi če ne, jim je splošni format novic znan in zato bolj zaupanja vreden.”

“Čeprav rezultati še vedno niso popolni, so zelo dobri, še posebej pri gledanju na mobilni napravi in kadar se gledalci hitro premikajo po družbenih medijih,” je dodal Farid, ki se v svojih raziskavah osredotoča na človeško zaznavanje in analizo slik.

“Resneje bomo morali začeti varovati pravice ljudi, katerih podoba in glas sta bila zlorabljena.”

Aplikacija ChatGPT, ki jo je razvilo podjetje OpenAI je sprožilo revolucijo na področju umetne inteligence (Foto: PROFIMEDIA)

Nevarnost manipulacije z ameriškimi volitvami

Lažni posnetki so pogosto uporabljeni v memih, da bi nasmejali ljudi. Bolj skrajni scenarij – da bi to manipulirano vsebino lahko uporabili za širjenje napačnih ali zavajajočih informacij, ki bi spremenile potek volitev, okoliščin ob prihodu podjetij na borzo in drugih dogodkov z velikim tveganjem – pa se še ni uresničil.

Vendar so se ameriške volitve leta 2020 odvijale še pred eksplozijo umetne inteligence, ki jo je sprožila aplikacija ChatGPT.

Ta je letos postala ena najhitreje rastočih potrošniških aplikacij v zgodovini in je prispevala k splošnemu sprejetju te tehnologije v družbi ter spodbudila milijarde vlagateljskega denarja za zagonska podjetja s področja umetne inteligence.

Zdaj lahko skoraj vsak s preprosto uporabno in lahko dostopno programsko opremo za umetno inteligenco posname videoposnetke ali zvočne posnetke javnih osebnosti (ali običajnih ljudi), ki delajo in govorijo stvari, ki jih v resnici niso.

Vse večji so strahovi, da bo umetna inteligenca ameriške volitve leta 2024 spremenila v Divji zahod.

To je okrepilo strahove, da bo umetna inteligenca bližajoče se ameriške volitve, leta 2024, spremenila v kaotični Divji zahod. Ta strah je še večji zaradi naraščajočega števila lažnih posnetkov, ki jih namensko uporabljajo kot navidezno pristna novinarska poročila.

Po besedah odvetnika Kevina Goldberga, strokovnjaka za Prvi amandma k ustavi ZDA pri neprofitni organizaciji Freedom Forum s sedežem v Washingtonu, je najbolj zaskrbljujoče to, da bi videoposnetke s pravimi novinarji v realističnih situacijah lahko uporabili kot agresivno obliko dezinformiranja.

Poudarja, da gre za resnično skrb, s katero se bo treba ukvarjati v času pred volitvami leta 2024.

A opozarja, da vendarle ni treba pretiravati. “Ja, obstaja možnost za zlorabo,” je povedal za Forbes. “Toda naš pravni sistem in naša družba sta več kot dobro opremljena za obvladovanje tega novega medija.”

Avtorica članka je Alexandra S. Levine.