,

ChatGPT dabar gali pranešti tavo draugui, jei kalbėsi apie save. Šios funkcijos kontrastai privers susimąstyti

·


ChatGPT logotipas, OpenAI naujoji Trusted Contact saugumo funkcija

Pirmą kartą perskaičius šitą naujieną man užspaudė krūtinę. OpenAI praneša, kad nuo gegužės 8 dienos ChatGPT gali nusiųsti žinutę tavo draugui ar artimajam, jeigu pokalbio metu pasirodys, kad svarstai apie savižudybę.

Sustojau ir pagalvojau. Pakeičia mūsų santykį su DI iš esmės. Anksčiau pokalbis buvo tarp tavęs ir programos. Dabar atsiranda trečia šalis. Tas, kuris turėtų paskambinti. Tas, kuris turėtų ateiti.

Vienas milijonas. Tiek žmonių iš 800 milijonų ChatGPT vartotojų per savaitę užsimena apie savižudiškas mintis, pripažino pati OpenAI. Tai ne marginalinis skaičius. Tai didelio Lietuvos miesto gyventojų skaičius. Kiekvieną savaitę.

Kaip veikia Trusted Contact

Funkcija pavadinta paprastai – „Patikimas kontaktas”. Jeigu esi pilnametis, gali nuo šios savaitės savo ChatGPT nustatymuose pažymėti vieną žmogų kaip savo patikimą kontaktą. Draugą. Tėvą. Sutuoktinį. Bet kurį suaugusį, kuris tave pažįsta.

Tas žmogus gauna kvietimą ir per savaitę turi jį priimti. Jeigu nepriima, gali pasirinkti kitą.

Toliau veikia taip. Kai ChatGPT automatinė sistema užfiksuoja, kad tu rašai apie savižalą ar savižudybę, įsijungia žmogiškas peržiūros etapas. Specialiai apmokyta OpenAI komanda per maždaug valandą peržvelgia pokalbį. Jeigu situacija atrodo rimta, tavo patikimas kontaktas gauna trumpą pranešimą el. paštu, žinute arba programėlėje.

Tekstas paprastas. „Šis žmogus gali šiuo metu išgyventi sunkų laikotarpį. Kaip jo patikimas kontaktas, raginame susisiekti su juo”.

Pokalbio turinys nėra siunčiamas. OpenAI pabrėžia, kad jokie pokalbio fragmentai neperduodami draugui. Tik signalas, kad reikia paskambinti.

Kodėl tai svarbu

Praėjusiais metais OpenAI buvo paduota į teismą dėl mirties. Šeima teigė, kad ChatGPT neapsaugojo paauglio, kuris pokalbiuose minėjo savižudiškas mintis. BBC tyrimas dar vienos istorijos lygiu parodė, kad pokalbių robotai kartais patys siūlo metodus.

OpenAI atsakas akivaizdus. Kompanija sako, kad tyrimai rodo vieną dalyką – socialinis ryšys yra vienas svarbiausių apsaugos veiksnių, mažinančių savižudybės riziką. Funkcija sukurta su klinikiniais psichologais ir savižudybių prevencijos organizacijomis.

Bet čia ir prasideda klausimai.

Kontrastai, kurie kelia klausimų

Iš vienos pusės. Žmogus, kuris vidury nakties rašo ChatGPT, kad nebenori gyventi, gali nieko šalia neturėti. Algoritmas pasiūlo, kad galbūt verta paskambinti tetai. Po valandos teta gauna žinutę, kad reikia patikrinti. Tai gali išgelbėti gyvybę.

Iš kitos pusės. Tu kalbi su DI būtent todėl, kad nedrįsti pasakyti šeimai. Funkcija to neatima. Bet pati žinia, kad „kažkas iš OpenAI peržvelgs mano pokalbį”, gali atbaidyti nuo atvirumo. Žmogus pradės kalbėti apie save tyliau, prisidengęs, neminėdamas tikro skausmo.

Yra dar trečia pusė. Privatumas. Pokalbis su DI ilgai buvo pristatomas kaip privatus. Tarp tavęs ir mašinos. Dabar tampa aišku, kad tarp tavęs, mašinos, OpenAI peržiūros komandos ir tavo pasirinkto draugo. Net jeigu pokalbio turinys nesiunčiamas, faktas, kad ten sėdi žmogus, kuris skaito tavo žodžius, keičia santykį iš esmės.

Ką tai reiškia tau

Jeigu naudoji ChatGPT kasdieniam darbui, ši funkcija tave veikia mažiau. Ji pati savaime neįsijungia. Reikia patiems aktyviai pasirinkti patikimą kontaktą iš nustatymų meniu.

Jeigu turi paauglį, kuris naudoja ChatGPT, tai galimybė pakalbėti su juo apie tai, kad tokia funkcija egzistuoja. Lietuvoje 18 metų amžiaus riba reiškia, kad vaikams ji nepasiekiama, bet jiems jau seniau veikia tėvų valdymo funkcijos, kurios praneša apie distreso požymius.

Jeigu pats kada nors svarstei apie savižudybę, tai dar viena saugumo priemonė. Bet ji neturėtų pakeisti realios pagalbos. Lietuvoje veikia Jaunimo linija ir Krizių linija, kurios atsiliepia 24 valandas per parą.

DI ir psichinės sveikatos pradžia

Kalbant plačiau, čia matyti naują tendenciją. DI kompanijos pradeda prisiimti ne tik produkto, bet ir gyvenimo atsakomybę. Anthropic šiek tiek anksčiau pristatė savo Claude konstituciją, kurioje aprašyta, kaip modelis turi reaguoti į psichikos sveikatos krizes. OpenAI dabar žengia praktinį žingsnį.

Klausimas, į kurį dar neturime atsakymo. Ar DI gali būti psichologinės pagalbos dalimi, ar tik įrankis, kuris ją perduoda žmogui? Akivaizdu, kad pirmieji bandymai nepaprastai sudėtingi. Bet galimybė atrodo neišvengiama.

Apie tai, kaip DI keičia kitas gyvenimo sritis, jau rašėme straipsnyje ChatGPT, Claude ar Gemini. Kurį DI rinktis 2026 metais. Apie DI saugumo iššūkius galima paskaityti tekste Kas yra prompt injection ir kaip apsaugoti savo verslą.

O praktinės DI ribos šeimoje aptartos straipsnyje Kas yra DI haliucinacija ir kaip ją atpažinti per 30 sekundžių.

Klausimas tau

Ar pasitiki, kad DI gali atpažinti tikrą skausmą tarp tūkstančių pokalbių apie kasdienius dalykus? Ar manai, kad geriau, jog jis bandytų ir kartais suklystų, nei nebandytų visai?

OpenAI tvirtina, kad funkcija optional ir privatumo apsaugota. Tačiau pati idėja, kad mašina nuspręs, kada laikas iškviesti pagalbą, atveria duris į ateitį, kurioje ribos tarp privataus pokalbio ir socialinio saugiklio nebebus aiškios.

Galimybė išgelbėti gyvybę. Galimybė pakeisti, kaip kalbame su DI. Abu šie dalykai dabar veikia vienu metu. Nors funkcija dar tik pradeda riedėti vartotojams, jos efektas pasimatys per ateinančius mėnesius. Sek naujienas dizinios.lt portale.