Vai mākslīgais intelekts jau zina jūsu noslēpumus?
ChatGPT un citi ģeneratīvā mākslīgā intelekta rīki ir atvieglojuši mūsu darba un ikdienas dzīvi. Latvijā šāda aptauja nav veikta, bet ASV dati liecina – gada sākumā kādu no ģeneratīvā mākslīgā intelekta rīkiem bija izmēģinājuši tikai 7 % pieaugušo, bet vasarā jau aptuveni ceturtā daļa. Pieļauju, ka pie mums situācija varētu būt līdzīga. Šādu rīku izmantošana var būtiski saīsināt veicamā uzdevuma izpildes laiku, jo tie zibenīgi apstrādā un analizē milzīgu datu apjomu, kas cilvēkam aizņemtu stundas vai pat dienas. Tomēr arvien pieaug tīšas vai netīšas neuzmanības riski, kas var nopietni kaitēt uzņēmumu darbībai un reputācijai.
Lai ilustrētu iespējamos riskus, sniegšu atsauci uz personīgajām vajadzībām izmantojamiem mākslīgā intelekta servisiem, piemēram, Pincel, Stable Diffusion vai Midjourney, ar kuru arī daudzi Latvijas sociālo mediju lietotāji spēlējās, veidojot savus avatārus filmu Bārbija un Openheimers stilistikā. Augšupielādē savu foto, apraksti vēlamo naratīvu un ar mākslīgo intelektu izveido kaut veselu portretu portfolio. Man fotografēšanās un portretu veidošana ir gluži kā zobu sāpes, tādēļ cerēju, ka šādi servisi ļaus man to vairs nekad nedarīt, tomēr aizdomājos, ka jebkura šajos servisos augšupielādētā bilde var tikt izmantota, piemēram, reklāmas vai kādas publikācijas vizuāļa ģenerēšanai nākotnē. Es nevēlētos ieraudzīt sevi vai man līdzīgu avatāru bildē, kas ģenerēta, izmantojot ierakstu priecīgs vīrietis veikalā pie plaukta izvēlas sojas pienu. Līdzīgi ir arī ar uzņēmuma datiem.
Vai esat pārliecināti, ka jūsu uzņēmuma darbinieki nav ievietojuši sensitīvu vai konfidenciālu informāciju dažādos ģeneratīvā mākslīgā intelekta rīkos, neievērojot datu drošību un uzņēmuma politiku? Citu valstu dati liecina, ka tas diemžēl notiek arvien biežāk. Ne vienmēr pārkāpumi notiek apzināti, daudz biežāk – nezināšanas dēļ. Iespējams, darbinieki neaizdomājas, ka mācību nolūkos mākslīgais intelekts saglabā visu, kas tajā ievadīts, un var izmantot informāciju, gatavojot atbildes uz citu lietotāju uzdotajiem jautājumiem.
Lai mākslīgais intelekts varētu mācīties, nereti datus pārsūta uz serveriem vai datu centriem, kas var atrasties ārpus Eiropas Savienības valstu robežām un var radīt sarežģījumus attiecībā uz datu jurisdikciju un prasībām. Tā rezultātā, ievadot informāciju mākslīgā intelekta rīkā, uzņēmums var zaudēt kontroli pār šo informāciju un izraisīt datu privātuma pārkāpumu. Lai gan dažos rīkos ir nodrošināta iespēja nesaglabāt ievadīto informāciju, tomēr nebūtu ieteicams paļauties uz to, ka mākslīgā intelekta rīks ievēros visus GDPR noteikumus. 2023. gada jūnijā Eiropas Parlamentā apstiprinātais Mākslīgā intelekta akts ir pirmais nozīmīgais dokumeents, kas regulēs mākslīgā intelekta tehnoloģiju pielietojuma jomas un datu izmantošanas principus Eiropas Savienībā, taču plašas diskusijas par šo jautājumu vēl ir priekšā.
Katrs darba devējs pārvalda savu darbinieku datus, no kuriem liela daļa ir sensitīva – sākot ar informāciju par veselību, beidzot ar darba novērtējumu un atalgojumu. Tas pats attiecas arī uz klientu datiem, uzņēmuma attīstības plāniem, finanšu rezultātiem un citu informāciju. Lai gan prezentācijas sagatavošana par atalgojuma apmēru dažādās uzņēmuma nodaļās ar mākslīgā intelekta palīdzību var būt ļoti ātra, diemžēl šīs informācija noplūšana uzņēmumam var sagādāt lielas raizes. Situāciju var risināt ar datu deidentifikāciju, jo to neregulē privātuma politika, taču arī tas nav 100 % drošs variants.
Lai izvairītos no šādām situācijām, ir jāapmāca visi darbinieki, kuriem ir pieeja sensitīvai vai konfidenciālai informācijai, tajā skaitā par mākslīgā intelekta rīku atbildīgu izmantošanu. Jaunā tehnoloģija var sekmēt uzņēmuma produktivitāti, tomēr tai nevajadzētu uzticēt sensitīvas informācijas apstrādi. Darbiniekiem ir jāapzinās riski, kas saistīti ar nepareizu personas datu apstrādi, un iespējamās sekas pašai organizācijai. Tāpat būtu jāievieš uzņēmuma satura pārvaldība (ECM) jeb tehnoloģisks risinājums, kas palīdz pārvaldīt visu kritiskās biznesa informācijas un dokumentu dzīves ciklu, kā arī datu noplūdes novēršanas (DLP) programmatūru, kas var liegt lietotājiem publicēt ierobežotas pieejamības datus mākslīgā intelekta rīkos. Tas ļaus sekmīgāk uzraudzīt uzņēmuma rīcībā esošo informāciju, nodrošinot piekļuves tikai tiem, kam konkrētā informācija patiešām ir nepieciešama.
Lieliem uzņēmumiem ar apjomīgiem datiem un pieejamiem resursiem būs iespēja veidot savus mākslīgā intelekta botus un modeļus, izmantojot publiskos GPT servisus. Novembra sākumā OpenAI (ChatGPT ražotājs) paziņoja, ka saviem korporatīvajiem klientiem piedāvās internal-only GPT mākslīgā intelekta servisus, kurus uzņēmumi varēs apmācīt, izmantojot savus datus, un pilnveidot tikai savām vajadzībām. Šāds risinājums samazinās iepriekšminētos datu izmantošanas riskus, taču jāapzinās, ka ekonomiski jēgpilns tas būs tikai lieliem uzņēmumiem ar milzīgiem datu apjomiem.
Latvijas kontekstā šis scenārijs visdrīzāk var nebūt relevants, tādēļ darbinieku apmācība, skaidri definēta mākslīgā intelekta politika uzņēmumā un nepārtraukta iekšējā komunikācija par šo tēmu un saistītajiem riskiem uzskatāma par pieejamāko instrumentu mākslīgā intelekta iespēju izmantošanai drošā veidā.
Ģeneratīvais mākslīgais intelekts var sniegt milzīgu pievienoto vērtību uzņēmuma attīstībai, un tas noteikti ir jāizmanto. Bet tikpat svarīgi ir veltīt laiku, lai pārliecinātos, vai uzņēmumam ir visa nepieciešamā programmatūra, lai kontrolētu darbinieku pieeju datiem, un vai personālam ir atbilstošas zināšanas par privātuma politiku, lai tehnoloģiju izmantotu droši.