Page 310 - Izobraževanje v dobi generativne umetne inteligence
P. 310

Alenka Žerovnik

                  oceno razširljivosti je treba simulirati različno število uporabnikov, da se oce-
                  ni, kako sistem UI obvladuje povečano povpraševanje in še vedno ohranja
                  sprejemljivo zmogljivost. S stresnim testiranjem sistema z različnimi obre-
                  menitvami uporabnikov lahko odkrijemo ozka grla in ugotovimo, pri kakšnih
                  obremenitvah sistem deluje z zadostno učinkovitostjo, čeprav ne nujno brez
                  vsakega vpliva na zmogljivost.
                    Razložljivost  je pomembna za razumevanje, kako modeli UI generirajo
                  vsebino, s čimer se izkazuje transparentnost delovanja in krepi zaupanje v
                  tehnologijo med izobraževalci ter učečimi se (Samek idr., 2017). Vendar pa je
                  pri zelo kompleksnih modelih, kot so velike nevronske mreže, ki poganjajo
                  orodja GUI, popolna transparentnost skoraj nedosegljiva, saj zaradi njihove
                  velikosti in kompleksnosti nihče zares ne ve, kako so posamezni izhodi gene-
                  rirani. Transparentni modeli GUI sicer lahko pomagajo ublažiti problem »črne
                  skrinjice«, vendar pa so takšne razložljive funkcionalnosti pri obsežnih mo-
                  delih omejene, kar vpliva na njihovo uporabnost v izobraževalnem okolju.
                  Pedagogi morajo zato k uporabi teh orodij pristopati z razumevanjem teh
                  omejitev in prilagajati svoja pričakovanja glede popolne razložljivosti. Vred-
                  notenje razložljivosti vključuje oceno, kako učinkovito lahko model GUI za-
                  gotovi vpogled v svoje procese odločanja. Penicig idr. (2024) v svojem članku
                  predstavljajo celovito vrednotenje pojasnjevanja modelov z inovativno upo-
                  rabo mehke kontrafaktualne analize – metode, ki sistematično ustvarja mini-
                  malno spremenjene vhodne scenarije za preverjanje skladnosti, občutljivosti
                  in mehanizmov pripisovanja v modelih. Mehanizmi pripisovanja so pristopi,
                  s katerimi poskušamo ugotoviti, v kolikšni meri posamezni vhodni podatki
                  prispevajo k določenim odločitvam modela, kar lahko pomaga osvetliti vpliv
                  specifičnih značilnosti na rezultate modela. Vendar je pri kompleksnih mode-
                  lih, kot so velike nevronske mreže, tovrstno vrednotenje razložljivosti omeje-
                  no, saj je popolno razumevanje notranjih mehanizmov pogosto nedoseglji-
                  vo. Kljub temu mehka kontrafaktualna analiza ponuja uporabne vpoglede v
                  to, kako se modeli odzivajo na spremembe vhodnih podatkov, kar je lahko
                  dragoceno za izobraževalni kontekst.
                    Varnost je pri integraciji orodij GUI v izobraževalna okolja izrednega pome-
                  na, saj zagotavlja, da so podatki zaščiteni pred nepooblaščenim dostopom
                  ali kršitvami (Kadaruddin, 2023; Gasimova, 2023; Yu in Guo, 2023). V sistemih,
                  podprtih z GUI, sta zato šifriranje in varno shranjevanje podatkov izredne-
                  ga pomena za preprečevanje njihovega uhajanja. Redni varnostni pregledi,
                  vključno s preverjanjem spletne varnosti in penetracijskim testiranjem, so
                  ključnega pomena za prepoznavanje ranljivosti v spletnih aplikacijah in in-
                  frastrukturi. Ti pregledi organizacijam omogočajo proaktivno ocenjevanje in


                  310
   305   306   307   308   309   310   311   312   313   314   315