,

Kas yra DI haliucinacijos ir kodėl jos gali tau kainuoti

·


DI haliucinacijos - dirbtinio intelekto klaidos

DI pasakė tau, kad Vilniuje yra 47 aukštesni nei 100 metrų pastatai. Skamba įtikinamai. Bet tai melas. Tiesiog labai sklandus melas.

Tai vadinama DI haliucinacija. Ir jei naudoji DI įrankius darbe ar gyvenime, tai vienas svarbiausių dalykų, kuriuos turi suprasti.

Kas yra DI haliucinacija?

Kai DI modelis sukuria informaciją, kurios nėra. Ne todėl, kad nori meluoti. O todėl, kad taip veikia jo vidinis mechanizmas.

Deep learning modeliai nemąsto. Jie prognozuoja sekantį žodį remiantis tikimybėmis. Kai tikimybė yra aukšta, atsakymas dažniausiai teisingas. Kai žema, modelis vis tiek kažką parašo. Nes jis suprojektuotas visada duoti atsakymą.

Ir kartais tas atsakymas yra visiškai sugalvotas. Su konkrečiais skaičiais, šaltiniais ir citatomis, kurių neegzistuoja.

Realūs pavyzdžiai, kurie sukėlė problemų

JAV advokatas 2023 metais pateikė teismui dokumentą su bylų nuorodomis, kurias sugeneravo ChatGPT. Bylos neegzistavo. Advokatas gavo baudą ir prarado reputaciją.

Vienas Australijos meras grąsino padavimą teismon ChatGPT, nes modelis teigė, kad jis buvo nuteistas už kyšininkavimą. Tai buvo visiška netiesa.

Studentai naudoja DI rašydami darbus ir pateikia faktus, kurių niekada nebuvo. Dėstytojai randa vis daugiau tokių atvejų.

Ir tai tik viešai žinomi atvejai. Kiek klaidingos informacijos patenka į verslo ataskaitas, laiškus klientams ar medicininius dokumentus, niekas tiksliai nežino.

Kodėl DI tai daro?

Trys pagrindinės priežastys.

Pirma: mokymo duomenys. Mašininis mokymasis remiasi duomenimis, su kuriais modelis buvo treniruotas. Jei duomenyse buvo klaidų ar prieštaravimų, modelis juos perima.

Antra: tikimybinis veikimas. Generatyvinis DI negali pasakyti „nežinau”. Jis visada bandys sugeneruoti atsakymą, net kai neturi pakankamai informacijos.

Trečia: konteksto ribos. Kiekvienas modelis turi ribotą konteksto langą. Ilgame pokalbyje modelis gali pradėti „pamiršti” anksčiau pateiktą informaciją ir pradėti kurti naują, kuri prieštarauja senam.

Kaip apsisaugoti?

Penkios praktinės taisyklės.

1. Niekada nepasitikėk DI atsakymu aklai. Ypač kai kalbama apie faktus, skaičius ar citatas. Patikrink šaltinį.

2. Klausk DI, kur jis rado informaciją. Jei negali pateikti tikro šaltinio, greičiausiai informacija sugalvota.

3. Naudok DI idėjoms, struktūrai ir juodraščiams. Ne galutiniam produktui be peržiūros.

4. Rinkis modelius, kurie turi citavimo galimybes. Perplexity, naujausios Claude ir GPT versijos gali nurodyti šaltinius.

5. Jei DI atsakymas skamba per gerai, kad būtų tiesa, dažniausiai taip ir yra.

Ar haliucinacijos išnyks?

Ne artimiausiu metu. Naujausi modeliai haliucinuoja rečiau, bet vis tiek tai daro. Gemini 3.1 ir GPT-5.4 yra tikslesni nei ankstesnės versijos. Bet nulinis haliucinacijų skaičius kol kas yra technologinė fantazija.

Ir tai nėra blogai. Tiesiog reikia suprasti, su kuo dirbi. DI yra galingas asistentas, bet ne neklystavas orakulas. Kaip ir žmonės, jis kartais klysta. Skirtumas tas, kad jo klaidos skamba labai įtikinamai.

Geriausia strategija: naudok DI kaip pirmą žingsnį, ne paskutinį. Ir visada turėk žmogų, kuris patikrina galutinį rezultatą.

Ar tu pats kada nors pagavai DI meluojant? Pasidalink komentaruose.