Tudi Pentagon uporablja umetno inteligenco. A le pod posebnim pogojem
Obrambna protiobveščevalna in varnostna agencija, ki opravlja storitve varnostnega preverjanja za milijone ameriških delavcev, uporablja umetno inteligenco za pospešitev svojega dela. Toda "črne skrinjice" niso dovoljene, pravi direktor agencije.
Preden svojim več kot 13 tisoč uslužbencem Pentagona dovoli, da poiščejo podatek o ameriškem državljanu, jih direktor obrambne protiobveščevalne in varnostne agencije (Defense Counterintelligence and Security Agency – DCSA) David Cattler vpraša: ali se moja mama zaveda, da sme vlada to storiti?
“Mama test”, kot ga imenuje Cattler, je zdravorazumsko preverjanje tega, kako DCSA – obsežna agencija, ki podeljuje in zavrača varnostna dovoljenja milijonom ameriških delavcev – opravlja svoje delo. In na tak način Cattler razmišlja tudi o uporabi umetne inteligence pri delu agencije.
DCSA je agencija, ki je zadolžena za preiskovanje in odobritev 95 odstotkov varnostnih dovoljenj uslužbencem zvezne vlade, zaradi česar mora vsako leto opraviti na milijone preiskav. To daje agenciji dostop do ogromne količine zasebnih informacij. Leta 2024 se je DCSA obrnila na orodja umetne inteligence za organizacijo in interpretacijo teh podatkov.
To ne vključuje orodij ChatGPT, Bard, Claude ali drugih prepoznavnih generativnih modelov umetne inteligence. Namesto tega črpa in organizira podatke na načine, ki jih že leta uporabljajo tehnološka podjetja iz Silicijeve doline, z uporabo sistemov, ki svoje delo prikazujejo jasneje kot večina velikih jezikovnih modelov. Cattler je na primer dejal, da je najbolj obetaven primer uporabe teh orodij razvrščanje obstoječih groženj po pomembnosti.
Ne črnim skrinjicam
Če teh orodij ne uporabljate previdno, lahko ogrozijo varnost podatkov in v vladne sisteme vnesejo pristranskost. Toda Cattler je bil kljub temu optimističen, da bi nekatere manj privlačne funkcije umetne inteligence lahko bile prelomne za agencijo – dokler niso “črne skrinjice”.
“Razumeti moramo, zakaj je (umetna inteligenca) verodostojna in kako počne to, kar počne,” je Cattler dejal za Forbes. “Ko uporabljamo ta orodja za namene, ki jih opisujem, moramo dokazati, da delajo, kar pravijo, da delajo, in da to počnejo objektivno ter na zelo skladen in dosleden način.”
Mnogi ljudje morda sploh ne bi uvrstili orodij, ki jih opisuje Cattler, pod umetno inteligenco. Navdušuje se na primer nad zamislijo o izdelavi toplotnega zemljevida objektov, ki jih varuje DCSA, s tveganji, prikazanimi v realnem času, ki se posodablja, ko druge vladne agencije prejmejo novo informacijo o morebitni grožnji. Kot pravi, bi takšno orodje lahko pomagalo DCSA “določiti, kam postaviti (metaforične) gasilske avtomobile.” To ne bi bilo odkrivanje novih informacij, zgolj predstavljanje obstoječih informacij na bolj uporaben način.
Nevarnost je, če bi umetna inteligenca odločala
Matthew Scherer, višji politični svetovalec pri Centru za demokracijo in tehnologijo, je za Forbes povedal, da je umetna inteligenca sicer lahko koristna pri zbiranju in organiziranju informacij, ki so že bile zbrane in potrjene, a da je nevaren naslednji korak – sprejemanje kritičnih odločitev, kot je opozarjanje na rdeče zastavice med postopkom preverjanja ozadja ali zbiranjem podatkov iz profilov na družbenih omrežjih. Na primer, sistemi umetne inteligence še vedno težko razlikujejo med več ljudmi z istim imenom, kar lahko vodi do napačne identifikacije.
“Zaskrbljen bi bil, če bi sistem umetne inteligence dajal nekakšna priporočila ali dajal palec na tehtnico pri določenih kandidatih za delovno mesto,” je dejal Scherer. “S tem se premaknete v področje avtomatiziranih sistemov odločanja.”
Cattler je dejal, da se agencija izogiba uporabi umetne inteligence za prepoznavanje novih tveganj. Tudi pri prioritiziranju pa se lahko pojavijo težave glede zasebnosti in pristranskosti. Pri sklepanju pogodb s podjetji z umetno inteligenco (Cattler ni želel imenovati nobenih partnerjev) mora DCSA upoštevati, katere zasebne podatke vnese v njihove lastniške algoritme in kaj lahko ti algoritmi storijo s temi podatki, ko jih imajo.
Podjetja, ki širši javnosti ponujajo izdelke umetne inteligence, so v preteklosti nehote razkrila zasebne podatke, ki so jim jih zaupale stranke. Takšna kršitev zaupanja bi bila katastrofalna, če bi se zgodila s podatki, ki jih hrani Pentagon.
Tveganje za pristransko odločanje
Umetna inteligenca bi lahko vnesla tudi pristranskost v sisteme ministrstva za obrambo. Algoritmi odražajo slepe pege ljudi, ki jih izdelujejo, in podatkov, na katerih so usposobljeni, DCSA pa se za zaščito pred predsodki v svojih sistemih zanaša na nadzor Bele hiše, kongresa in drugih upravnih organov.
Poročilo korporacije RAND iz leta 2022 je izrecno opozorilo, da bi lahko umetna inteligenca v sistem preverjanja varnostnih dovoljenj vnesla pristranskosti, “potencialno kot posledica pristranskosti programerjev ali zgodovinskih rasnih razlik”.
Cattler je priznal, da se družbene vrednote, ki informirajo algoritme, vključno s tistimi v Pentagonu, sčasoma spreminjajo. Danes je oddelek po njegovih besedah precej manj toleranten do ekstremističnih pogledov, kot je bil nekoč, a nekoliko bolj toleranten do ljudi, ki so bili nekoč odvisni od alkohola ali drog in zdaj okrevajo. “V mnogih krajih v Združenih državah je bilo dobesedno nezakonito biti gej do ne tako dolgo nazaj,” je dejal. “To je bila pristranskost, ki jo je sistem morda moral odstraniti.”
Avtorici članka sta Emily Baker-White in Rashi Shrivastava.