Page 311 - Izobraževanje v dobi generativne umetne inteligence
P. 311
Tehnična, tehnološka in druga merila vrednotenja orodij GUI za integracijo v izobraževanje
zmanjševanje potencialnih tveganj, še preden jih lahko izkoristijo zlonamerni
akterji. Tehnike, kot sta iskanje ranljivosti in pregled kode, skupaj s simulirani-
mi napadi, nudijo celovit vpogled v varnostno stanje in pripomorejo k zaščiti
občutljivih podatkov (Vikas idr., 2023). Modeli GUI pogosto delujejo v oblaku,
uporabljajo API-je in obdelujejo velike količine občutljivih podatkov, kar jih
naredi še posebej ranljive za kibernetske napade in izkoriščanje varnostnih
pomanjkljivosti. Zato lahko omenjene tehnike zagotovijo, da so ti modeli
skladni z varnostnimi standardi, da podatki ostanejo zaščiteni in da so mo-
rebitne varnostne pomanjkljivosti hitro odkrite ter odpravljene, še preden
lahko pride do kršitev zasebnosti ali nepooblaščenih dostopov. Npr., pregled
kode razvijalcem omogoča, da preverijo, ali modeli pravilno obdelujejo in
shranjujejo podatke, medtem ko lahko penetracijski testi odkrijejo ranljivosti
v API-ju, ki ga zlonamerni uporabniki morda poskušajo izkoristiti.
Zasebnost podatkov se osredotoča na zaščito osebnih podatkov vseh delež-
nikov in zagotavljanje, da modeli GUI spoštujejo predpise o zasebnosti, kot
je Splošna uredba o varstvu podatkov (General Data Protection Regulation
– GDPR). Raziskave o UI poudarjajo pomen anonimizacije podatkov, transpa-
rentnih politik ravnanja s podatki ter naprednih tehnik za ohranjanje zaseb-
nosti, pri čemer se uporabljajo tehnike, kot so zvezno učenje (angl. federated
learning), homomorfno šifriranje (angl. homomorphic encryption) in diferen-
cialna zasebnost (angl. differential privacy). Te metode učinkovito zmanjšu-
jejo tveganje izpostavljenosti podatkov, hkrati pa omogočajo pridobivanje
dragocenih vpogledov. Zvezno učenje omogoča usposabljanje modelov UI
neposredno na lokalnih napravah uporabnikov, pri čemer se posodobitve
modela združujejo centralno, ne da bi bilo treba deliti surove podatke, kar
zmanjšuje tveganje za izpostavljenost občutljivih podatkov (Tardif, 2021). Ta
tehnika je uporabna predvsem za modele, ki se lahko učijo na podatkih iz več
naprav ali virov brez potrebe po centralnem zbiranju podatkov. Na velikih je-
zikovnih modelih temelječi modeli GUI bi lahko z zveznim učenjem zmanjšali
tveganje za izpostavljenost občutljivih podatkov. Čeprav modeli, kot je Llama
(Meta), že omogočajo uporabo zveznega učenja tudi za obsežne jezikovne
modele, pri implementaciji ostajajo tehnični izzivi. Ti vključujejo porabo raču-
nalniških virov, usklajevanje posodobitev v realnem času in zagotavljanje ro-
bustnosti modela, zlasti v okoljih z omejenimi računalniškimi zmogljivostmi.
Homomorfno šifriranje omogoča izvajanje izračunov na šifriranih podatkih,
ne da bi jih bilo treba dešifrirati, kar zagotavlja, da so podatki ves čas zaščiteni,
tudi med obdelavo (Vonk, 2024). To bi teoretično omogočilo, da modeli GUI
obdelujejo šifrirane podatke brez dostopa do občutljivih podatkov. Vendar
pa je homomorfno šifriranje računalniško zelo zahtevno, kar trenutno ome-
311