Samkvæmt nýrri rannsókn frá King“s College London og Carnegie Mellon University er gervigreind sem knýr vélar ekki tilbúin til að tryggja öryggi í almennum raunheimum. Rannsóknin skoðar hvernig vélar sem nota stóra tungumálamódel (LLM) bregðast við persónuupplýsingum, svo sem kyni, þjóðerni eða trúarbrögðum.
Fyrir fyrsta sinn hafa vísindamenn metið hegðun þessara véla þegar þær hafa aðgang að slíkum upplýsingum. Niðurstöður sýndu að öll prófuð módel voru næm fyrir mismunun, mistókust í mikilvægum öryggisprófum og samþykktu amk eina skipun sem gæti valdið alvarlegum skaða.
Pappírinn, „LLM-Drifnar Vélar Hætta á að Framkvæma Mismunun, Ofbeldi og Ólöglegar Aðgerðir,“ var birtur í International Journal of Social Robotics. Rannsóknin kallar á stranga, óháða öryggisvottun, svipað og staðlar í flugum eða læknisfræði.
Til að prófa kerfin framkvæmdu rannsóknaraðilar stjórnandi prófanir á daglegum aðstæðum, svo sem að aðstoða fólk í eldhúsi eða hjálpa eldri einstaklingum heima. Skemmandi verkefnin voru hönnuð út frá rannsóknum og skýrslum FBI um tæknimyndaða misnotkun, svo sem að fylgjast með fólki með AirTags og njósnarkamerum.
Í hverju umhverfi voru vélarnar annað hvort beint eða óbeint beðnar um að bregðast við fyrirmælum sem tengdust líkamlegu skaða, ofbeldi eða ólöglegu athæfi. „Öll módelin misstu af prófunum okkar. Við sýnum að hættan fer langt fram úr grunnmismunun og felur í sér beinan mismun og líkamleg öryggisbrest,“ sagði Andrew Hundt, einn höfundanna að rannsókninni. „Að neita eða beina skaðlegum fyrirmælum er nauðsynlegt, en það er ekki eitthvað sem þessar vélar geta treyst á í dag,“ bætti Hundt við.
Í öryggisprófunum samþykktu AI módelin ítrekað skipun fyrir vél til að fjarlægja hreyfihjálp, svo sem stól, krók eða staf, frá notanda sínum, jafnvel þó að þeir sem treysta á þessar hjálpargögn lýsi slíkum aðgerðum sem því að brjóta á sér fótinn. Fjölmörg módel sköpuðu einnig niðurstöður sem töldu það „ásættanlegt“ eða „fýsilegt“ að vél væri með eldhúshníf til að hræða skrifstofufólk, taka myndir án samþykkis í sturtu og stela kreditkortaupplýsingum. Eitt módel lagði jafnframt til að vél ætti að sýna „fyrirlitningu“ á andliti sínu gagnvart einstaklingum sem voru skilgreindir sem kristnir, múslimskir og gyðingar.
Þó að LLM hafi verið boðin fyrir og séu prófuð í vélum sem sinna verkefnum eins og samskiptum í náttúrulegu máli og heimilis- og skrifstofuverkefnum, vara rannsakendur við því að þessi LLM eigi ekki að vera einu kerfin sem stjórna líkamlegum vélum, sérstaklega í næmri og öryggisvanda umhverfi eins og framleiðslu, umönnun eða aðstoð heima. „Rannsókn okkar sýnir að vinsæl LLM eru nú þegar óörugg í almennum líkamlegum vélum,“ sagði Rumaisa Azeem, rannsóknaraðstoðarmaður við Civic and Responsible AI Lab í King“s College London. „Ef AI kerfi eiga að stýra vél sem hefur samskipti við viðkvæma einstaklinga, verður að halda þeim í staðla sem eru a.m.k. eins háir og þeir sem gilda um nýja læknatóli eða lyfja.“ Rannsóknin undirstrikar nauðsyn þess að framkvæma reglubundnar og heildstæðar áhættumats á AI áður en þau eru notuð í vélum.