Kas yra DI haliucinacija ir kaip ją atpažinti per 30 sekundžių. Penki paprasti testai.
·

Praėjusį mėnesį pažįstamas advokatas Vilniuje paklausė ChatGPT apie vieną teismo sprendimą. DI atsakė konkrečiai. Pavadino bylą, datą, teisėją, citavo punktą iš sprendimo. Viskas atrodė tvarkoje.
Tik vėliau jis patikrino. Tos bylos niekada nebuvo. Teisėjas tikras, bet jis tokio sprendimo niekada nepriėmė. Pavadinimas suklastotas. Citata sukurta nuo nulio.
Tai vadinama haliucinacija. Ne klaida, ne neaiškumas, o pasitikinčiai pateikta išmislas, kurį DI „atrado” savo galvoje vietoj to, kad pripažintų nežinojimą.
Kas iš tikrųjų vyksta
Didelis kalbos modelis (LLM) neturi atminties faktais. Jis turi tikimybes — kuriuos žodžius rašyti po kurių. Kai tu paklausi „kada Lietuva prisijungė prie ES”, modelis neatsuka tau lentelės iš duomenų bazės. Jis pats pagal mokymo duomenis sugeneruoja tikėtinus žodžius. Atsakymas „2004 metais” yra teisingas todėl, kad statistikai buvo dažniausiai parašytas šalia tų žodžių mokymo duomenyse.
Bet kai tu paklausi apie kažką labai siauro, niekur nedokumentuoto, modelis vis tiek generuos atsakymą. Net jeigu jam reikės tą atsakymą sugalvoti pačiam.
Štai kodėl DI dažnai meluoja įsitikinusiai. Jis ne meluoja sąmoningai — jis tiesiog neturi mechanizmo, kuris atskirtų „aš tikrai žinau” nuo „aš spėju, bet skamba įtikinamai”.
Kodėl tai svarbu
2026 metų vasario benchmark’as išmatavo 37 modelius — haliucinacijų lygis svyravo nuo 15 iki 52 procentų, priklausomai nuo užduoties tipo. ICLR 2026 tyrimas dar parodė, kad protingesni modeliai dažniau ne mažiau, o daugiau meluoja kai paklausti apie pačius save.
Tai reiškia paprastą dalyką. Naujausias GPT-5.5 Instant klysta perpus rečiau už pirmtaką, bet vis tiek klysta. Kai dirbi su DI, tu negali pasitikėti aklai. Privalai tikrinti.
Klausimas tik vienas. Kaip tikrinti, neeikvojant 5 minučių kiekvienam atsakymui?
Penki testai per 30 sekundžių
1 testas. Paklausk modelio jo paties pasitikėjimo.
Po atsakymo paprasčiausiai pridėk: „Įvertink savo atsakymo patikimumą skalėje nuo 1 iki 10 ir paaiškink, kuriose vietose galėtum klysti”.
Geri modeliai (Claude Opus 4.7, GPT-5.5, Gemini 3.1 Pro) dažnai pripažįsta neaiškumą. Jeigu modelis sako „10 iš 10″, o klausimas labai siauras, įtarimas didelis. Jei sako „6 iš 10, nesu tikras dėl datos”, tai sąžiningas signalas.
2 testas. Paprašyk šaltinio.
Tiesiog parašyk: „Iš kur ta informacija? Pateik konkretų šaltinį arba pripažink, kad neturi šaltinio”.
Haliucinacijos labiausiai išlenda čia. Modelis pradės arba kurti netikrus URL’us, arba pripažins, kad „nėra konkretaus dokumento, į kurį galėčiau nurodyti”. Antras variantas yra jūsų laimėjimas.
Patarimas — niekada nepasitikėk modelio pateiktomis nuorodomis. Patikrink jas naršyklėje. Apie 30 procentų DI pateiktų „šaltinių” iš tikrųjų neegzistuoja arba veda į skirtingą turinį.
3 testas. Užduok klausimą iš kito kampo.
Jei DI tau pasakė „X įmonė buvo įkurta 2017 metais”, po 2 minučių užduok klausimą kitaip: „Kiek metų X įmonei 2026 metais?”.
Jei modelis haliucinavo, jis greičiausiai duos kitokį skaičių, nes neatsimena ankstesnio savo atsakymo. Realūs faktai yra konsistentiški, sugalvoti — ne.
Šis testas veikia geriausiai per skirtingus pokalbius arba po contexto resetinimo.
4 testas. Patikrink konkrečius vardus, datas ir skaičius.
Tai vienintelis testas, kuris reikalauja Google. Bet užtenka 20 sekundžių.
Jeigu DI pasakė „2026 metais Žygimanto Augusto giminės atstovas pasakė tokią frazę” — atveršk Google, įrašyk citatą kabutėse. Jei niekas jos nerodo, citata greičiausiai sugalvota.
Konkretūs faktai yra haliucinacijų pagrindinis klanas. Bendrieji teiginiai („didelės įmonės investuoja į DI”) būna teisingi. Konkretūs („Maksima Group 2025 metais sukūrė DI skyrių su 47 darbuotojais”) — dažnai išlaisvinti.
5 testas. „Aš ne įsitikinęs, ar tas tikrai yra. Patikrink.”
Po DI atsakymo parašyk šitą frazę. Po jos pridėk: „Jei nesi pats tikras, pripažink, ne kurk istorijų”.
Kartais modelis tiesiog atsitraukia. „Iš tikrųjų neturiu pakankamai duomenų patvirtinti, anksčiau galėjau klysti”. Bingo. Tu ką tik užbėgai už akių haliucinacijai.
Kuriose situacijose haliucinacijų pavojus didžiausias
Pažymiu galvoje šituos signalus:
- Klausi apie labai siaurą sritį (vietinė politika, siauros nišos, smulkios įmonės)
- Prašai konkrečių citatų, datų, vardų
- Tema yra po modelio mokymo datos pabaigos
- Klausimas reikalauja matematinio skaičiavimo (DI dažniausiai labai blogi su skaičiais)
- Prašai akademinių šaltinių, mokslinių straipsnių, įstatymų straipsnių
Šiose situacijose visada įjungiu „tikrintojo režimą”. Atsakau pats sau: „Ar man tikrai svarbu šitas faktas? Jei taip, patikrinu antrame šaltinyje”.
Kodėl 2026 metais haliucinacijos sumažėjo, bet neišnyko
Naujausi modeliai (GPT-5.5, Claude Opus 4.7, Gemini 3.1) turi RAG (Retrieval-Augmented Generation) integraciją. Tai reiškia, kad modelis nebėra priklausomas tik nuo savo „atminties” — jis taip pat ieško informacijos internete realiu laiku ir cituoja konkrečius šaltinius.
Tyrimai rodo, kad RAG sumažina haliucinacijų lygį 30–70 procentų. Bet jis jų neišnaikina. Jei modelis randa tris skirtingus šaltinius, bet jie prieštarauja, jis vis tiek pasirinks vieną, ir gali pasirinkti klaidingą.
Bonus — kai naudoji prompt engineering technikas, gali sumažinti haliucinacijas dar 20 procentų. Pavyzdys — pridek „Jei nežinai, sakyk ‘nežinau'” kiekvieno užklausimo pradžioje. Skamba banaliai, bet veikia.
Praktinis darbo procesas
Aš pats šitaip dirbu su DI Lietuvoje:
Pirma, kiekvieną kritinį faktą, kurį ketinu naudoti viešai (klientui, straipsniui, pristatymui), tikrinu antrame šaltinyje. Visada. Be išimčių.
Antra, naudoju DI kaip pirmą juodraštį, ne kaip galutinę tiesą. Jeigu DI parašė pastraipą su 5 statistikomis, aš pratusiu sutikti su struktūra ir argumentu, bet 5 statistikas pakeisiu savo, surinktomis iš tikrų šaltinių.
Trečia, niekada nesitiki DI pataisyti savo paties klaidos. Jei modelis apsiriko, jis greičiausiai apsiriks vėl, kitaip. Reikia eiti į šaltinį.
Ketvirta, jei naudoju DI verslo sprendimui (finansai, teisė, medicina) — visada konsultuoju gyvą specialistą. Agentinis DI keičia verslą, bet pats sprendimas dėl atsakomybės lieka tau.
Tu kuria ranka po klaviatūra. DI yra greitas pirmas juodraštis, ne paskutinis žodis.
Vienas paskutinis dalykas
Naudokis DI saugiai. Bet nepamiršk: kuo modelis labiau įtikinamas, tuo daugiau įtarimo. Pasitikintis tonas neįrodo, kad informacija teisinga. LLM modelis iš tikrųjų nemoka skirti tiesos nuo neteisos — jis moka tik generuoti tikėtinus žodžius.
Klausimas tau šiandien. Kuri tavo darbo dalis labiausiai priklauso nuo tikslių faktų, ir ar tu jau sukūrei sau tikrinimo procesą?


