Bezbednost i privatnost velikih jezičkih modela u veštačkoj inteligenciji

0
64
bezbednost-i-privatnost-velikih-jezickih-modela-u-vestackoj-inteligenciji

Generativna veštačka inteligencija, zasnovana na velikim jezičkim modelima (LLM), poput OpenAI GPT-4, Meta Llama 2 i Google PaLM 2, sve više se koristi u različitim industrijama, uključujući i sajber-bezbednost. Međutim, postoji zabrinutost kada je reč o privatnosti i prebivalištu podataka kod većine LLM aplikacija, što ograničava njihovu primenljivost. U nekim slučajevima, zaposleni u organizacijama potpuno nesvesno šalju lično prepoznatljive informacije (PII) servisima poput ChatGPT, van kontrole organizacije, ne razumevajući povezane bezbedonosne rizike. Osim toga, važno je istaći da svi osnovni modeli nisu jednaki. Njihovi rezultati nisu uvek tačni, a varijabilnost tih rezultata zavisi od različitih tehničkih faktora.

Često postavljana pitanja:

1. Kako mogu korisnici LLM modela da provere da li je prodavac koristio najadekvatnije modele za određenu svrhu, poštujući pri tom privatnost, prebivalište podataka i bezbednost?

2. Koji osnovni model se koristi i gde se nalazi?

Odvajanje bezbednosti i privatnosti LLM-a

Prvo pitanje se odnosi na osnovni model koji se koristi. Za većinu savremenih organizacija, odgovor će obično biti GPT-3.5 ili GPT-4 ako koriste vlasničke modele. U slučaju korišćenja otvorenih modela, očekuje se da će se koristiti neka varijacija Llama 2 modela. Međutim, ukoliko se koristi GPT-3.5 ili GPT-4 model, važno je obratiti pažnju na pitanja privatnosti i prebivališta podataka. Na primer, ukoliko se koristi OpenAI API, sve unete informacije biće poslate OpenAI-u, koji će prikupiti podatke za ponovno treniranje svojih modela. Ukoliko se šalju lično prepoznatljive informacije, to može predstavljati kršenje pravila za upravljanje podacima i rizicima (GRC), i čini korišćenje OpenAI API-ja neprihvatljivim za mnoge svrhe. S druge strane, ako vaš dobavljač veštačke inteligencije koristi Azure OpenAI servis, podaci se ne delje niti čuvaju od strane OpenAI-a.

Važno je napomenuti da postoje tehnologije koje mogu ukloniti lično prepoznatljive informacije iz LLM upita pre slanja na vlasničke servere kako bi se umanjio rizik od izloženosti takvim informacijama. Međutim, važno je naglasiti da je teško generalizovati proces uklanjanja lično prepoznatljivih informacija i potvrditi ga sa 100% sigurnošću. Iz tih razloga, otvoreni modeli koji se lokalno hostuju pružaju veću zaštitu od kršenja pravila za upravljanje podacima u poređenju sa vlasničkim modelima.

Organizacije koje koriste otvorene modele moraju obezbediti stroge bezbednosne kontrole da bi zaštitile podatke i modele od napadača (npr. šifriranje poziva API-ja, kontrola prebivališta podataka, kontrole pristupa zasnovane na ulogama za skupove podataka, itd). Ukoliko privatnost nije prioritet i ukoliko je važno brzina odziva i kvalitet odgovora, vlasnički modeli se obično preferiraju zbog svoje cene i efektivnosti.

Osiguravanje tačnosti i doslednosti LLM-a

Sada, da pređemo na performanse i tačnost modela. LLM modeli se obučavaju na velikim skupovima podataka sakupljenim sa interneta, kao što su CommonCrawl, WebText, C4, CoDEx i BookCorpus, samo da navedemo neke od njih. Ovi podaci čine osnovu za razumevanje sveta od strane LLM-a. Ukoliko je model obučen samo na vrlo specifičnom skupu podataka, njegovo razumevanje će biti ograničeno i imaće teškoća u odgovaranju na pitanja izvan svog domena. Rezultat će biti sistem koji je podložniji halucinacijama veštačke inteligencije koje dobijaju besmislene ili potpuno netačne odgovore.

Da bismo imali veštačke inteligencija sisteme koji su „sigurni po dizajnu“, možemo koristiti LLM preusmerivač. Ovo je API proxy koji omogućava organizaciji da prati i validira zahteve upućene LLM-ima u realnom vremenu, kao i da prati podatke koji su deljeni i vraćeni korisnicima. LLM preusmerivač pruža kontrolnu tačku koja može da dodatno osigura protiv eventualnih problema sa zaštitom privatnih informacija korisnika prateći zahteve i, u mnogim slučajevima, rešavajući bezbednosne probleme vezane za LLM modele.

Zaključak

U zaključku, iako korišćenje LLM modela donosi mnoge prednosti, važno je da organizacije i korisnici pažljivo razmotre aspekte privatnosti, bezbednosti i tačnosti. Izbor između vlasničkih i otvorenih modela, postizanje zadovoljavajuće bezbednosti i upravljanje podacima, kao i potreba za tačnostima, su ključni faktori koji utiču na ispravno korišćenje LLM modela i njihovu prihvatljivost u različitim svrhama aplikacija veštačke inteligencije.

Read More