tehnologija /

Senčna stran UI

Tudi vaši zaposleni uporabljajo različna orodja umetne inteligence po svoje, brez jasnih pravil in sistema? Nujno je, da se zavedate nevarnosti, ki zato pretijo vaši organizaciji, in ukrepate.

Senčna stran UI

Po lansiranju ChatGPT-ja novembra 2022 so generativna orodja umetne inteligence, kot so ChatGPT, Copilot, Gemini ali MidJourney, eksplozivno prodrla tudi v podjetja. Zaposleni so jih začeli uporabljati sami, brez dovoljenja IT-oddelkov, direktorji pa so bili postavljeni pred izziv, kako to urediti. Brez centraliziranega sistema za upravljanje umetne inteligence lahko namreč podjetja izgubijo nadzor nad podatki, skladnostjo in varnostjo, kar lahko vodi do finančnih izgub in pravnih zapletov ter škodi ugledu.

68 % zaposlenih uporablja brezplačne različice generativne umetne inteligence, 57 % teh uporabnikov pa v tovrstna orodja vnaša tudi občutljive podatke.

Situacijo, ko zaposleni samovoljno in brez regulative uporabljajo orodja umetne inteligence, imenujemo »shadow AI« oziroma siva UI. Po raziskavi Menlo Security kar 68 odstotkov zaposlenih uporablja brezplačne različice generativne umetne inteligence, kar samo po sebi ni problematično. Rdeči alarm pa bi se moral sprožiti ob podatku, da 57 odstotkov teh uslužbencev v tovrstna orodja vnaša tudi občutljive podatke. Uhajanje občutljivih podatkov kot ključno tveganje izpostavljajo tudi analize strokovnjakov Forbesa, Deloitta, McKinseyja in drugih. Dogaja se namreč, da zaposleni v orodja umetne inteligence vnašajo poslovne podatke, osebne informacije o strankah, intelektualno lastnino ali celo dele izvornih kod. »To je skoraj tako, kot da bi zaupne dokumente pustili na javnem mestu: morda jih res nihče ne bo pobral, toda tveganje je izjemno veliko,« nevarnost tovrstnega početja slikovito ponazori Marko Štefančič, direktor Kompetenčnega centra za umetno inteligenco (KCUI). S tem podjetja tvegajo kršitve regulacij in zakonov, kot so Splošna uredba o varstvu podatkov (GDPR), zakon HIPAA, ki določa pravila za varovanje zasebnosti in varnosti osebnih zdravstvenih podatkov, ter Akt o umetni inteligenci Evropske unije, ki ureja razvoj, uporabo in trženje umetne inteligence. Nenadzorovana uporaba orodij umetne inteligence odpira vrata tudi kibernetskim napadom. Če zaposleni v tovrstna generativna orodja nehote vnašajo podatke brez varnostnih protokolov, to povečuje tveganje za zlorabo. V raziskavi IBM je 13 odstotkov organizacij navedlo, da so bile njihove aplikacije ali modeli UI že tarča varnostne kršitve.

60 % vprašanih na vodilnih položajih priznava, da se zanašajo na umetno inteligenco pri sprejemanju odločitev o svojih podrejenih, vključno s poviški, napredovanji in odpuščanji.

Naslednja pomembna tveganja sive umetne inteligence so napake, pristranskost, netočnost analiz in slepo zaupanje rezultatom. »Generativna umetna inteligenca ni kalkulator, ki vedno vrne enak odgovor, temveč je nedeterministični sistem, ki deluje na podlagi verjetnosti. Včasih ponudi briljantne rešitve, drugič pa si dejstva preprosto izmisli. Če uporabniki teh ne preverijo, lahko pride do napačnih odločitev, poslovne škode ali celo pravnih zapletov,« opozarja Štefančič. Globalno kar 56 % zaposlenih dela napake zaradi uporabe UI, saj jih kar 66 % ne preverja njenih rezultatov, kar povečuje tveganje za poslovno škodo (McKinsey/Deloitte).

48 % zaposlenih v slovenskih podjetjih je priznalo, da so umetno inteligenco pri svojem delu uporabljali na neprimeren način, 60 % teh uporabnikov pa je zato naredilo tudi napake.

V nedavni anketi med 1342 zaposlenimi na vodstvenih položajih, ki jo je naročil ResumeBuilder.com, je 60 odstotkov anketirancev potrdilo, da se zanašajo na UI pri sprejemanju odločitev o neposrednih podrejenih, vključno s poviški, napredovanji, odpuščanji in odpovedmi. Medtem ko jih večina umetno inteligenco uporablja zgolj kot orodje za pomoč pri teh odločitvah, jih je 20 odstotkov priznalo, da pogosto (ali celo ves čas) pustijo umetni inteligenci, da sprejema odločitve brez človeškega posredovanja. Si sploh predstavljate, kakšne posledice ima lahko takšno nekritično zaupanje?

»Rešitev ni v tem, da podjetja zasujemo z regulativo, dodatnimi stroški in obveznimi izobraževanji. Tak pristop pogosto ustvari občutek, da je umetna inteligenca predvsem nevarnost in breme, kar prestraši ravno tista podjetja, ki so na začetku poti. Prava pot je drugačna: pokazati je treba, kako lahko umetna inteligenca pomaga pri vsakodnevnih opravilih, kje prinaša konkretne koristi in kako jo z enostavnimi pravili uporabljati varno. To pomeni pilotne projekte, ki hitro pokažejo rezultate, praktične smernice, ki jih razume vsak zaposleni, ter partnerstva, ki gradijo občutek varnosti in zaupanja. Ko podjetja spoznajo, da je umetna inteligenca resnično uporabna, so tudi sama motivirana, da jo uvajajo širše in bolj odgovorno.«

Marko Štefančič, direktor Kompetenčnega center za umetno inteligenco (KCUI)

V Sloveniji se velika podjetja, ki imajo strokovnjake in vire, nevarnosti sive umetne inteligence zavedajo in umetno inteligenco uvajajo strukturirano, z mislijo na varnost. V manjših in srednjih podjetjih pa pogosto prevladuje navdušeno eksperimentiranje, kar pomeni, da zaposleni orodja uporabljajo brez jasnih pravil in nadzora. To pa je nevarno. Po raziskavi KPMG je 48 odstotkov zaposlenih v slovenskih podjetjih priznalo, da so umetno inteligencoi pri svojem delu uporabljali na neprimeren način, 60 odstotkov teh uporabnikov pa je zato naredilo tudi napake. Na globalni ravni kar 77 % zaposlenih poroča o zmedi pri uporabi UI, kar kaže na nujnost izobraževanja in jasnih smernic (McKinsey/Deloitte, 2024).

Na globalni ravni kar 77 % zaposlenih poroča o zmedi pri uporabi UI, kar kaže na nujnost izobraževanja in jasnih smernic (McKinsey/Deloitte, 2024).

»Umetna inteligenca v podjetju ne sme postati divji zahod,« je neposreden Štefančič. »Potreben je jasen, a pragmatičen okvir, ključno pa je upravljanje (governance). Smiselno je, da se podjetje ne loteva vsega naenkrat, temveč najprej obvlada primere uporabe, ki so najpomembnejši in najbolj tvegani. Upravljanje naj raste s hitrostjo razvoja umetne inteligence v organizaciji in naj se naslanja na obstoječe mehanizme, ki jih podjetje že pozna – od podatkovne strategije do korporativnega nadzora in revizije. V praksi to ni naloga enega oddelka, temveč ekipnega dela: IT skrbi za tehnologijo, pravna služba za skladnost, kadrovska za izobraževanje zaposlenih, vodstvo pa za strateške usmeritve. Dobro delujoč model upravljanja temelji na treh gradnikih: operativnem modelu, politikah in nadzornih mehanizmih. Brez teh varovalk se umetna inteligenca iz pospeška produktivnosti hitro lahko spremeni v vir tveganj in razočaranj,« še doda sogovornik. Ravno zato, da se to ne bi zgodilo, zdaj nastaja Kompetenčni center za umetno inteligenco (KCUI), nacionalni projekt Ministrstva za digitalno preobrazbo, ki ga pod vodstvom GZS soustvarjajo gospodarstvo, raziskovalne ustanove, univerze in javna uprava. Cilj KCUI je podjetjem ponuditi praktično podporo, znanje in orodja, s katerimi lahko umetno inteligenco uvajajo varno, učinkovito in z zaupanjem.

Tveganja:

  1. Uhajanje občutljivih podatkov. Poslovni podatki, osebne informacije o strankah in intelektualna lastnina se vnašajo v platforme, ki jih upravljajo tretje osebe in shranjujejo na neznanih strežnikih, kar povečuje možnost zlorab.
  2. Kršitve zakonodaje. Avtorske pravice, odgovornost za napačne odločitve ali kršitve regulativ lahko postanejo problem, saj ni jasno, kdo in kako je umetno inteligenco uporabljal pri procesih odločanja ali ustvarjanju vsebin, to pa lahko vodi tudi do milijonskih glob.
  3. Kibernetska ranljivost. Nepooblaščena orodja odpirajo vrata kibernetskim napadom.
  4. Napake, pristranskost in netočnosti. Zaposleni sprejemajo halucinacije umetne inteligence kot resnico.

Ukrepi:

  1. vzpostavitev jasnih pravil in smernic za uporabo,
  2. določitev dovoljenih orodij in načinov uporabe,
  3. izobraževanje zaposlenih,
  4. nadzor.