Pastaruosius kelerius metus technologijų milžinės įtikinėjo, kad kuo žmonės daugiau duomenų atiduos dirbtinio intelekto (DI) pokalbių robotams, tuo išmanesni jie taps. Dabar „Copilot“ žengia dar vieną žingsnį – vartotojus skatins dalintis sveikatos istorija ir medicininiais įrašais. Darius Povilaitis, „Telia“ kibernetinio saugumo vadovas perspėja, kad DI modeliais taip pasitikėti nereikėtų, nes kalbant apie sveikatą, jie klysta 5 kartus iš 10.
Tokios įmonės kaip „Microsoft“, „Amazon“ bei „OpenAI“ aktyviai testuoja ir paleidžia naujus įrankius, skirtus sveikatos duomenų analizei. Pavyzdžiui, „Microsoft“ neseniai pristatė funkciją, kuri siūlo apjungti įvairių gydymo įstaigų įrašus su miego ir fizinio aktyvumo duomenimis išišmaniųjų įrenginių (pvz., „Apple Watch“ ar „Oura“ žiedų).
Atsakymų tikslumas „fifty-fifty“
Žadama, kad DI pokalbių robotas „Copilot Health“ per kelias sekundes atliks tai, kam gydytojui prireiktų valandų – išanalizuos didžiulį kiekį informacijos bei pateiks išsamią sveikatos būklės apžvalgą.
Tačiau realybė kol kas gerokai sudėtingesnė. Tyrimai rodo, kad DI medicinos srityje vis dar dažnai klysta. Pavyzdžiui, 2025 m. publikuotas tyrimas parodė, kad net beveik pusė (49,6 proc.) chatbotų atsakymų į medicininius klausimus buvo klaidingi, o beveik penktadalis – net potencialiai pavojingi. Kiti tyrimai atkreipia dėmesį į vadinamąsias haliucinacijas, kai DI kaip tiesą pateikia klaidingą informaciją ar net išsigalvoja mokslinius šaltinius.
„Kaip nereikėtų pasitikėti medicinos žyniuoniais ar šarlatanais, taip nesaugu leisti save nugydyti dar tik besimokančiam DI modeliui. Nors technologijų kūrėjai iš pradžių viliojo pažadais pakeisti psichologus, o dabar jau ir gydytojus, aklas pasitikėjimas mašinomis turi savo grėsmių. Kai kalbame apie brangiausią turtą – sveikatą, sutaupyta valanda negali nusverti privatumo rizikų ir pavojaus gyvybei. Tikri medikai studijoms atiduoda daugybę metų ir paciento sveikatą vertina atsižvelgdami į aibę veiksnių, kurių pokalbių robotas tiesiog nepastebės“, – perspėja kibernetinio saugumo vadovas.
Sveikatos duomenys – aukso gysla nusikaltėliams
DI įrankiai potencialiai galėtų padėti žmonėms geriau sekti savo savijautą, ypač kai profesionalios medicinos paslaugos kartais būna sunkiai prieinamos dėl ilgų eilių, o užsienyje – dėl kainų. Tačiau, pasak D. Povilaičio, pavojai, kurie gali atsirasti atidavus medicininiams duomenims DI, yra grėsmingi ir patogumo kol kas neverti.
„Skirtingai nei tradicinėms gydymo įstaigoms, technologijų įmonėms dažnai netaikomi tie patys griežti pacientų duomenų apsaugos įstatymai. Vadinasi, lieka atvira galimybė, kad ši informacija ateityje galėtų būti naudojama DI apmokymui ar net taikant reklamas. Juk ir Lietuvoje išaugęs startuolis „Flo Health“ jau sulaukė baudų, kad galimai pardavinėjo moterų sveikatos duomenis „Meta“, – sako D. Povilaitis.
Kibernetinio saugumo ekspertas atkreipia dėmesį į dar vieną grėsmę – technologijų įmonės gali centralizuotai kaupti medicinos duomenis vienoje vietoje.
„Vienoje vietoje atsiranda didelės vertės duomenų lobis, kurį žmonės gali pasiekti. Ligoninių sistemoms ir taip nuolat kenčiant nuo programišių atakų, vienoje vietoje sutelkti jautriausi milijonų žmonių sveikatos įrašai yra tiesiog tobulas taikinys. Nutekėję duomenys galėtų atskleisti ligas ar būkles, kurias žmonės norėtų išlaikyti visiškoje paslaptyje. O tai atveria galimybes šantažui bei manipuliacijoms“, – teigia D. Povilaitis.
Patarimai gali sutaupyti laiko, bet kainuoti sveikatą
Dar viena didžiulė problema – DI teikiamų patarimų patikimumas. Nors kūrėjai apsidraudžia įspėjimais ir teigia, kad robotas nėra skirtas diagnozuoti ligoms, akivaizdu, jog žmonės šiuos įrankius naudos būtent tam.
„Net specializuoti pokalbių robotai dar nėra tam pasiruošę: jie neretai klysta, nepastebi gyvybei pavojingų situacijų, o šiek tiek pakeitus klausimo formuluotę, pakeičia ir patarimus“, – sako D. Povilaitis.
Pasitikėjimas mašinomis jau lėmė skaudžių pasekmių. Pavyzdžiui, vienas vyras atsidūrė psichiatrijos skyriuje po to, kai paklausė „ChatGPT“ patarimo mitybos klausimais ir apsinuodijo natrio bromidu. Be to, robotų sugeneruotos diagnozės dėl paprasto galvos skausmo gali išgąsdinti žmogų spėjimais apie iš tikrųjų neegzistuojančius auglius ir panašiai.
„Chatbotai mėgsta tirštinti spalvas. Todėl, prieš atiduodant savo sveikatą algoritmams, verta atsargiai pasverti su tuo susijusias grėsmes“, – pastebi kibernetinio saugumo ekspertas.


