Kauno technologijos universiteto (KTU) profesorius Šarūnas Grigaliūnas perspėja, kad dirbtinio intelekto (DI) įrankiai, tokie kaip „ChatGPT“, gali sukaupti daugiau informacijos, nei derėtų, o už tai atsakingi esame mes patys. DI sparčiai integruojasi į kasdienį darbą, teikdamas greitas, patogias ir lengvai prieinamas paslaugas. Tačiau kyla klausimas, kas nutinka su informacija, kuria mes su juo dalijamės? Kai produktyvumas tampa svarbesnis už atsargumą, o DI įrankiai tampa neatsiejama darbo dalimi, dažnai pamirštame, kad jie nėra neutralūs ar savaime saugūs. Šarūnas Grigaliūnas, KTU Informatikos fakulteto profesorius ir Kibernetinio saugumo kompetencijų centro vadovas, dalijasi įžvalgomis apie tai, kaip DI keičia mūsų darbo įpročius ir kokios rizikos slypi už kasdienio patogumo.
Profesorius pastebi, kad vis daugiau darbuotojų dalijasi konfidencialia informacija su DI sistemomis. KTU atlikti tyrimai rodo, kad beveik 40% darbuotojų bent kartą yra įkėlę darbo informaciją į „ChatGPT“ ar panašius įrankius. Dažnai neįvertinama, kad kopijuojant el. laišką ar dokumentą į DI sistemą, šie duomenys yra perduodami išorinei sistemai. Jis pateikia pavyzdį, kai vienos įmonės finansų skyriaus darbuotojas įkėlė sutarties projektą į „ChatGPT“, prašydamas jį patobulinti, visiškai nepagalvodamas, kad taip jis padarė šiuos duomenis prieinamus trečiajai šaliai. Nors yra generatyvinio dirbtinio intelekto (GDI) saugaus naudojimo organizacijoje gairės, žmonės vis dar rizikuoja.
Grigaliūnas aiškina, kad darbuotojų pasitikėjimą DI sistemomis lemia keli psichologiniai faktoriai. Pirmiausia, DI įrankiai yra sukurti taip, kad atrodytų draugiški ir patikimi – jie atsako mandagiai, profesionaliai ir sukuria įspūdį, kad bendraujama su patikimu kolega. Antra, dauguma darbuotojų neturi pakankamai gilių žinių apie tai, kaip veikia šie įrankiai. Jie mato tik vartotojo sąsają, bet nežino, kas vyksta „po gaubtu“ – kur keliauja duomenys, kaip jie saugomi ir kas gali turėti prieigą prie jų. Be to, pastebimas ir technologinis optimizmas – daugelis darbuotojų mano, kad jei įrankis yra populiarus ir naudojamas milijonų žmonių, jis tikriausiai yra saugus. Tai primena situaciją, kai žmonės nesidaro savo asmeninių duomenų ar kompiuteriuose saugomos informacijos atsarginių kopijų, nes mano, kad „man nieko blogo nenutiks“ arba „aš neturiu ko slėpti“.
Profesorius teigia, kad žmonės gali tapti mažiau atsakingi už savo sprendimus, jei nuolat pasitiki DI. Šis reiškinys vadinamas „atsakomybės perkėlimu“ arba „automatizacijos šališkumu“. Kai naudojamas DI įrankis, dalis atsakomybės yra perkeliama sistemai. Jis mini atvejį, kai darbuotojas, naudodamas DI pagalbą rašant svarbų pasiūlymą klientui, dėl neatidumo įtraukė klaidingą informaciją, nes tiesiog pasitikėjo DI pateiktu tekstu be patikrinimo. Taip pat pastebimas ir atvirkštinis reiškinys – kai kuriais atvejais žmonės tampa per daug atsargūs ir abejingi, nepriimdami jokių sprendimų be DI patvirtinimo. Tyrimai rodo, kad IT specialistai, nuolat naudojantys kodo generavimo įrankius, pradeda abejoti savo gebėjimais rašyti kodą be šių įrankių pagalbos.
Grėsmės, kylančios dėl darbuotojų pasitikėjimo DI sistemomis, tokiomis kaip „ChatGPT“, yra įvairios. Pirmiausia, tai tiesioginis konfidencialios informacijos nutekėjimas. Įkėlus dokumentą su klientų duomenimis, įmonės finansine informacija ar intelektine nuosavybe į „ChatGPT“, ši informacija atsiduria „OpenAI“ serveriuose. Taip pat kyla rizika, kad konkurentai gali gauti prieigą prie vertingos verslo informacijos. Pasitaikė atvejis, kai įmonės darbuotojas įkėlė naują produkto koncepciją į DI įrankį, prašydamas pataisyti teksto klaidas, ir taip faktiškai paviešino dar nepatentuotą idėją. Reikia nepamiršti ir BDAR pažeidimų rizikos. Jei į DI įrankį įkeliamas dokumentas su asmens duomenimis be teisinio pagrindo, pažeidžiamas įstatymas ir įmonei gali grėsti rimtos baudos. Lietuvoje viena organizacija jau susidūrė su problemomis, kai darbuotojas įkėlė klientų duomenis į „ChatGPT“, norėdamas sukurti tikslesnius atsakymus.
Jau yra buvę atvejų, kai konfidencialūs duomenys, sukelti į DI sistemas, pateko į viešumą. „Samsung“ darbuotojai netyčia nutekino įmonės programinį kodą per „GitHub Copilot“. Vienas JAV teisininkas naudojo „ChatGPT“ ruošdamas teismo dokumentus, ir sistema „sugalvojo“ neegzistuojančius teismų sprendimus, kuriuos jis pateikė teismui. Lietuvoje įmonės rinkodaros specialistas įkėlė dar nepaskelbtą reklamos kampaniją į „ChatGPT“, prašydamas patobulinti tekstą, o vėliau pastebėjo labai panašią konkurentų kampaniją. Nors tiesioginio ryšio nebuvo įrodyta, sutapimas atrodė įtartinas. Taip pat pasitaikė atvejis, kai darbuotojas sukėlė įmonės vidinės komunikacijos fragmentus į „ChatGPT“, o paskui pastebėjo, kad dalis turinio atsirado „ChatGPT“ atsakymuose kitiems naudotojams, nors ir be konkrečių įmonės pavadinimų.
Kaip „ChatGPT“ ir kitos panašios DI platformos tvarko naudotojų pateikiamus duomenis? Ar jie gali būti saugomi ir panaudoti vėliau? Tai priklauso nuo konkrečios platformos ir jos duomenų tvarkymo politikos. „OpenAI“, „ChatGPT“ kūrėjai, pagal savo privatumo politiką, saugo pokalbius 30 dienų, kad galėtų reaguoti į piktnaudžiavimo atvejus, tačiau taip pat naudoja šiuos duomenis savo modelių tobulinimui. Nemokamose DI platformų versijose praktiškai visada įvesti duomenys yra naudojami modelių apmokymui. Tai reiškia, kad įkelti tekstai gali tapti modelio žinių dalimi. Yra dokumentuotų atvejų, kai modeliai „prisimena“ dalykus, kurie buvo pateikti treniravimo metu. Mokamose versijose, pavyzdžiui, „ChatGPT Enterprise“, paprastai yra griežtesnės privatumo apsaugos priemonės ir įmonės gali pasirinkti nenaudoti jų duomenų modelių tobulinimui. Tačiau net ir tada duomenys turi būti siunčiami į išorinius serverius apdorojimui.
Ar įmanoma atsekti ir ištrinti darbuotojų netyčia paviešintus duomenis tokiose DI sistemose? Deja, tai yra beveik neįmanoma. Kai duomenys patenka į DI sistemą, jie gali būti naudojami įvairiais būdais: saugomi serverių žurnaluose, naudojami modelių tobulinimui ar analizuojami kokybės tikrinimo tikslais. Net jei paprašoma ištrinti pokalbį (kas techniškai yra įmanoma kai kuriose platformose), nėra jokių garantijų, kad duomenys nebuvo jau panaudoti modelio atnaujinimui ar kad jie neegzistuoja atsarginėse kopijose. Tai primena šiukšlių išmetimą į vandenyną – galima ištraukti keletą didesnių dalių, bet dauguma jau išsisklaidė ir nebeįmanoma jų surinkti.
Organizacijos turi taikyti kelių lygių strategiją, kad subalansuotų DI naudojimą ir duomenų apsaugą. Visų pirma, būtinas darbuotojų mokymas ir sąmoningumo didinimas. Organizacijos privalo šviesti darbuotojus apie duomenų privatumo rizikas. KTU sukūrė interaktyvius mokymus, kuriuose demonstruojama, kaip duomenys keliauja per DI sistemas ir kokie yra galimi pavojai. Taip pat reikalinga aiški DI naudojimo politika. Kiekviena organizacija turėtų turėti dokumentuotas gaires, kokio tipo informaciją galima įkelti į viešus DI įrankius, o kokios ne. Pavyzdžiui, Lietuvos bankų sektorius jau turi tokias taisykles. Be to, verta investuoti į vidinius, privatumo atžvilgiu saugius DI sprendimus. Kai kurios Lietuvos įmonės jau naudoja „privačius ChatGPT“ variantus, diegiamus įmonės infrastruktūroje, kur duomenys neišeina už organizacijos ribų. Organizacijos gali įdiegti DLP (angl. Data Loss Prevention) sistemas, kurios stebi ir blokuoja konfidencialios informacijos siuntimą į nepatvirtintas išorines platformas. Prieš leidžiant naudoti bet kokį DI įrankį, organizacija turėtų atlikti poveikio duomenų apsaugai vertinimą (DPIA), kaip to reikalauja BDAR. Svarbu suprasti, kad nėra vieno universalaus sprendimo – kiekviena organizacija turi sukurti savo strategiją, atsižvelgdama į savo veiklos pobūdį, tvarkomus duomenis ir rizikos toleranciją.
Pabaigoje profesorius rekomenduoja naudotis informacijos saugos (C)ISO asistentu (www.ciso.lt), kuris padeda organizacijoms geriau suprasti ir valdyti tokias rizikas, parengti aiškias informacijos saugos tvarkas ir procedūras, kurios būtų pritaikytos konkretiems organizacijos veiklos scenarijams ir darbuotojų pareigoms.