Anthropic ir OpenAI sėdo prie stalo su religiniais lyderiais. Niujorke įvyko pirmasis Faith-AI Covenant susitikimas
·

Niujorko salėje aplink stalą sėdėjo žmonės, kurie paprastai nesusitinka. Anthropic ir OpenAI atstovai. Hindu šventyklos vadovas. Sikų bendruomenės žmogus. Bahai tikėjimo atstovas. Graikų ortodoksų arkivyskupijos kunigas. Mormonų bažnyčios žmogus.
Pavadinimas oficialus – „Tikėjimo ir DI sandora”. Pirmasis tokio pobūdžio susitikimas pasaulyje. Tema viena. Kaip įdėti moralę į algoritmą.
Skaičiau šitą naujieną ir pirma reakcija buvo skepsiška. Įsivaizdavau, kaip kunigai aiškina inžinieriams apie nuodėmę. Bet kai pradėjau gilintis, supratau, kad tai daug rimčiau.
Kas tiksliai įvyko
Renginį organizavo Ženevoje įsikūrusi Tarptikybinė saugesnių bendruomenių aljanso organizacija. Ji jau metus dirba su tokiomis temomis kaip ekstremizmas, radikalizacija ir prekyba žmonėmis. Dabar į savo agendą įtraukė ir DI etiką.
Susitikime dalyvavo atstovai iš Hindu šventyklos draugijos Šiaurės Amerikoje, Bahai tarptautinės bendruomenės, Sikų koalicijos, Graikų ortodoksų arkivyskupijos ir Pastarųjų dienų šventųjų Jėzaus Kristaus bažnyčios.
Iš technologijų pusės sėdėjo Anthropic ir OpenAI darbuotojai, atsakingi už etikos klausimus. Tai dvi kompanijos, kurios šiuo metu lenktyniauja dėl 900 milijardų dolerių vertinimo ir kontroliuoja didžiausią pasaulyje dirbtinio intelekto modelių dalį.
Tikslas vienas. Sukurti bendrą principų rinkinį, kuriuo DI kompanijos turėtų vadovautis. Iš krikščionių, sikų, budistų ir kitų religinių mokyklų pamokytą.
Kodėl DI kompanijos kreipiasi į religiją
Vienas atsakymas paprastas. Reguliacija per lėta. Baronessa Joanna Shields, Aljanso vadovė, sakė tiesiai. Įstatymų leidėjai negali sekti DI vystymosi tempo. Tai ką daryti?
Etikos rėmus reikia kurti dabar. Iš kur juos imti? Kompanijos negali jų pačios sukurti, nes tada konkurencija privers leistis žemyn. Vyriausybė negali, nes per lėta. Universitetai gali, bet jiems trūksta moralinio autoriteto.
Religijos turi tūkstančius metų darbą su klausimu, kas yra teisinga. Kas yra žmogus. Kur ribos. Net jei skirtingos religijos atsako kitaip, pats klausimas joms pažįstamas.
Pati Anthropic šitą supranta seniau. Praėjusiais metais kompanija sukūrė savo „Claude konstituciją” – principų rinkinį, į kurį įtraukė ir religinių lyderių patarimus. Dabar OpenAI seka panašia kryptimi.
Kontrargumentai
Ne visi sutinka, kad tai gera idėja. DI tyrėja Rumman Chowdhury susitikimą pavadino „blaškymu nuo realių reguliacijos klausimų”. Jos argumentas paprastas. Kol diskutuojama apie tai, kaip įdėti moralę į algoritmą, niekas neapibrėžia konkrečių taisyklių, kaip kompanijos turi elgtis su vartotojų duomenimis.
Yra dar gilesnis klausimas. Kurio Dievo moralę dėti į DI? Krikščioniško? Hindu? Sekuliarinio humanizmo? Kompanijos sako, kad ieškos „bendrųjų vardiklių”. Bet kuo daugiau bendrų vardiklių, tuo abstraktesnės taisyklės.
Be to, Vakarų religijos jau seniai diskutuoja, ar pati DI yra moraliai priimtina. Katalikų bažnyčia, popiežiaus Pranciškaus laikais, pasakė viešą perspėjimą dėl „algoritminės despotijos”. Jeigu visi tikintieji laikytųsi savo religinių vadovų pozicijos, daug DI sprendimų nebūtų leistini.
Kas iš tiesų ant stalo
Kompanijos sako, kad ieško kelių principų, kuriais būtų galima vadovautis kuriant modelį. Pavyzdžiui:
- Kaip DI turėtų reaguoti į vartotojo psichikos krizę
- Ką DI turėtų daryti, kai prašoma melo, kuris padės žmogui
- Kaip DI turėtų elgtis su mirtimi ir gedėjimu
- Kokias ribas DI turėtų taikyti vaikams
- Kaip turėtų reaguoti į religinius klausimus
Anthropic šiuos klausimus sprendžia jau ne pirmus metus. OpenAI sutikimas kartu sėsti rodo, kad kompanija irgi pradeda imtis šios temos rimtai. Praėjusią savaitę OpenAI pristatė „Patikimo kontakto” funkciją, kuri įjungia žmogiškus peržiūrėtojus į savižudybės temų aptarimus. Apie tai jau rašėme straipsnyje ChatGPT dabar gali pranešti tavo draugui.
Lietuvai šis klausimas irgi aktualus
Galima pagalvoti, kad tai amerikietiška problema. Tačiau Lietuvoje DI naudoja vis daugiau žmonių. Ir pirmas klausimas, kuris kyla, kai jis pradeda kalbėti apie filosofinius dalykus, yra kieno vertybes mums atspindi.
Apie tai, kaip DI keičia mūsų santykius su technologijomis, jau rašėme straipsnyje Kas yra agentinis DI. O apie DI grėsmes ir kaip nuo jų apsisaugoti – tekste DI saugumas mažam verslui.
Lietuvoje yra savo religinių bendruomenių. Yra savo etikos tradicijos. Klausimas, ar mes irgi siųsime atstovą prie kito tokio susitikimo stalo. Šios tendencijos dar tik prasideda.
Kas toliau
Aljansas planuoja dar kelis tokius susitikimus. Pekine. Nairobyje. Abu Dabyje. Nori pasiekti, kad principų rinkinys atspindėtų ne tik vakarietišką požiūrį.
OpenAI ir Anthropic žada dalyvauti. Kitos kompanijos kol kas tyli. Google DeepMind dar nepasisakė. Meta neatsiuntė atstovo.
Iš tiesų, tai svarbus posūkis DI istorijoje. Iki šiol diskusija buvo techninė. Kaip pagerinti modelį. Kaip sumažinti haliucinacijas. Kaip padidinti efektyvumą. Dabar prasideda kita kalba. Apie ką iš tiesų yra DI. Kam jis turi tarnauti.
Klausimas tau. Ar tikima, kad religinių lyderių patarimai gali realiai paveikti tai, kaip OpenAI ir Anthropic kuria modelius? Ar tai daugiau viešųjų ryšių žaidimas?
Atsakymas, regis, paaiškės per ateinančius mėnesius, kai pamatysime, kokios konkrečios taisyklės atsiras kompanijų etikos dokumentuose.


