,

Kodėl DI meluoja: kas yra haliucinacijos ir kaip nuo jų apsisaugoti

·


DI haliucinacijos iliustracija - kodėl dirbtinis intelektas meluoja

Prieš porą mėnesių Nebraska advokatas neteko licencijos neribotam laikui. Priežastis? Teismui pateikė 57 teisines citatas, sugeneruotas DI. 20 iš jų buvo visiškai išgalvotos. Neegzistuojančios bylos, neegzistuojantys sprendimai, neegzistuojantys teisėjai.

Ir jis net nesuprato, kad kažkas negerai.

Tai yra DI haliucinacija veikime. Ir jei manai, kad tau tai negali nutikti, skaityk toliau.

Kas vyksta DI galvoje, kai jis meluoja

Pirmiausia reikia suprasti vieną svarbų dalyką. Dirbtinis intelektas nemeluoja sąmoningai. Jis neturi ketinimo tave apgauti. Problema kitokia ir tam tikra prasme net baisesnė.

DI kalbos modeliai veikia prognozuodami sekantį žodį. Kiekvieną kartą, kai ChatGPT ar Claude tau rašo atsakymą, jis iš tikrųjų spėja: koks žodis turėtų eiti po to, kurį jau parašė? Ir po to? Ir po to?

Tai kaip žmogus, kuris labai gerai moka kalbėti, bet ne visada žino, apie ką kalba.

Kai modelis neturi tikslios informacijos, jis nedaro to, ką darytum tu. Tu pasakytum „nežinau”. O modelis tiesiog tęsia spėjimą. Ir kadangi jis labai gerai moka kurti natūraliai skambančius sakinius, rezultatas atrodo visiškai įtikinamas.

Taip gimsta haliucinacija. Tiksliai skambantis, bet visiškai prasimanytas atsakymas.

TRYS DAŽNIAUSI HALIUCINACIJŲ TIPAI

Ne visos haliucinacijos vienodos. Kai kurios pavojingesnės už kitas.

Fakto haliucinacija. Modelis pateikia konkretų, bet neteisingą faktą. Sako, kad tam tikra studija parodė X, nors tokios studijos nėra. Arba nurodo datą, kuri neteisinga. Nebraska advokato atvejis yra klasikinis pavyzdys. Modelis tiesiog sugeneravo bylas, kurios niekada neegzistavo.

Šaltinio haliucinacija. Modelis pateikia informaciją ir nurodo šaltinį, bet šaltinis nesako to, ką modelis teigia. Arba šaltinis neegzistuoja. Tu paspaudžiamas nuorodą ir gauni 404 klaidą. Arba, dar blogiau, nuoroda veikia, bet ten parašyta visai kas kita.

Logikos haliucinacija. Modelis teisingai pateikia atskirus faktus, bet neteisingai juos sujungia. Padaro išvadą, kuri neplaukia iš duomenų. Tai sunkiausiai pastebimas tipas, nes kiekvienas atskiras teiginys gali būti teisingas.

Kodėl net geriausi modeliai vis dar haliucinuoja

Galėtum paklausti: jei problema žinoma, kodėl jos neišsprendžia?

Nes tai ne bug. Tai yra fundamentali savybė to, kaip kalbos modeliai veikia.

Modelis buvo treniruotas ant milijardų tekstų. Jis matė enciklopedijas, mokslinius straipsnius, Reddit diskusijas ir receptų puslapius. Visa tai sumaišyta vienoje statistinėje „sriuboje”. Kai tu klausi klausimo, modelis neieško atsakymo duomenų bazėje. Jis generuoja atsakymą remdamasis tikimybėmis.

Ir kartais tos tikimybės nuveda klaidingu keliu.

Situacija gerėja su kiekviena nauja modelių karta. GPT-5.4 haliucinuoja rečiau nei GPT-4. Claude Opus 4.6 rečiau nei jo ankstesnės versijos. Bet nulinis haliucinacijų lygis kol kas lieka svajonė.

KAIP APSISAUGOTI: 5 praktiniai žingsniai

Nereikia vengti DI. Reikia išmokti su juo dirbti protingai. Štai penki dalykai, kuriuos gali padaryti jau šiandien.

1. Visada tikrink šaltinius. Jei DI pateikia faktą, statistiką ar citatą, patikrink. Ypač jei tai bus naudojama oficialiame dokumente, prezentacijoje ar straipsnyje. Tai užtrunka minutę, bet gali sutaupyti reputaciją.

2. Naudok DI su RAG technologija. RAG (Retrieval Augmented Generation) leidžia modeliui ieškoti informacijos konkrečiuose šaltiniuose prieš generuojant atsakymą. Tai drastiškai sumažina haliucinacijas, nes modelis remiasi tikrais dokumentais, ne tik savo „atmintimi”.

3. Klausk DI, kiek jis tikras. Rimtai. Gali paprašyti: „Kiek esi tikras dėl šio atsakymo? Ar yra dalykų, kurių galėjai nežinoti?” Geri modeliai dažnai pripažįsta savo ribotumą, jei tiesiogiai paklausi.

4. Naudok kelias priemones kartu. Patikrink tą patį klausimą keliuose modeliuose. Jei ChatGPT sako vieną dalyką, o Claude kitą, tai signalas giliau pasiknisti. Geras promptų formulavimas taip pat padeda gauti tikslesnius atsakymus.

5. Žinok, kur DI silpniausias. Datos, skaičiai, citatos, mažai žinomų temų, labai nauji įvykiai. Šiose srityse haliucinacijų tikimybė didžiausia. Kai klausi apie šiuos dalykus, tikrink dvigubai.

Ateitis: ar haliucinacijos kada nors išnyks

Trumpas atsakymas: visiškai ne. Bent jau ne su dabartine architektūra.

Ilgesnis atsakymas: jos taps retesnės ir lengviau aptinkamos. Nauji modeliai jau turi savitikros mechanizmus. RAG technologija tobulėja. Atsiranda specializuoti modeliai konkrečioms sritims, kurie haliucinuoja žymiai rečiau savo srityje.

Bet tikėtis, kad DI niekada neklysta, yra tas pats kas tikėtis, kad žmogus niekada neklysta. Tik žmogaus klaidos atrodo kitaip. Mes pasakome „nežinau” arba paklausiame kolegos. DI to natūraliai nedaro.

Ir gal svarbiausia pamoka yra tokia: DI yra galingas įrankis, bet jis nėra tiesos šaltinis. Jis yra pagalbininkas, kuris dažnai teisus, bet ne visada. Kaip kolega, kuris daug žino, bet kartais per daug pasitiki savimi.

Tavo darbas yra būti tuo žmogumi, kuris patikrina. Bent jau kol kas.

Ar tau jau nutiko, kad DI pateikė informaciją, kuria patikėjai, o vėliau paaiškėjo, kad ji buvo neteisinga? Pasidalink savo patirtimi komentaruose.