Kodėl Anthropic atsisakė Pentagono milijardų. Etikos kaina arba brangiausia rinkodaros klaida.
·

Yra du būdai pažiūrėti į šios savaitės įvykius. Abu jie tinka, bet vedia skirtingomis kryptimis.
Pirmas. Anthropic yra vienintelė didžioji JAV DI laboratorija, kuri pasakė ne Pentagonui. Kovo mėnesį įmonė atsidūrė juodajame sąraše dėl atsisakymo leisti naudoti Claude „visiems teisėtiems tikslams”, įskaitant autonomines ginkluotės sistemas ir masinį stebėjimą. Penktadienį Pentagonas pasirašė sutartis su septyniais konkurentais. Apie šią naujieną jau rašėme atskirai.
Antras. Anthropic kainos krenta nuo 5.1 mlrd. dolerių pajamų į rizikingą poziciją, kurioje JAV vyriausybė jau nebėra klientu. Vietoj to, kad suvaldytų reputacines pasekmes, įmonė pasirinko viešą mūšį.

KO RIETŪKIA ANTHROPIC POZICIJA
Anthropic įkūrė buvę OpenAI darbuotojai 2021 metais. Pati įmonės misija aprašyta vienu sakiniu: „statyti DI, kuris būtų saugus, naudingas ir suprantamas”. Steigėjai išėjo iš OpenAI būtent dėl nesutarimų dėl saugos prioritetų.
Iki šiol ši misija atrodė kaip rinkodaros tonas. Visa DI industrija kalba apie etiką, niekas nesielgia kitaip nei kiti. Anthropic Pentagono atveju įrodė, kad jie kalba ne tik tonu. Atsisakyti milijardų yra brangi politinė deklaracija.
KO TAI KAINUOJA
Tikslių skaičių niekas viešai nesako, bet panašaus dydžio Pentagono kontraktai konkurentams (Microsoft, Amazon, Google) sudaro keliolika mlrd. dolerių per kelerius metus. Anthropic atsisakė šito dydžio rinkos.
Tačiau yra ir tiesioginė reputacinė kaina. Pentagono technologijų vadovas šią savaitę CNBC pasakė, kad Anthropic juodajame sąraše vis dar yra. Net jų Mythos modelis (kuris atrado tūkstančius zero-day pažeidžiamumų) traktuojamas atskirai. Vyriausybė nori naudoti įrankį, bet ne santykius.
Investuotojai šią poziciją vertina dvejopai. Vieni mato, kad Anthropic kuria stiprų etinį prekės ženklą. Kiti mato įmonę, kuri dėl principo atmetė didžiausią rinkos segmentą.
KAS REALIAI VYKSTA UŽ KULISŲ
Skirtingai nei OpenAI, kurią valdo Sam Altman, Anthropic vadovai (Dario ir Daniela Amodei) yra mokslininkai. Jiems argumentas „mūsų modeliai negali būti naudojami autonominėms ginkluotės sistemoms” yra ne reklamos teksto kabliukai. Tai yra dalis tyrimų krypties, kurią pasirinko prieš įkurdami įmonę.
Reikia pastebėti įdomų niansą. Anthropic nesusiprista visiškai su gynybos sektoriumi. Claude jau seniai naudojamas Palantir karinio žvalgybos įrankyje (Maven). Australija turi atskirą partnerystę su Anthropic gynybos srityje. Skirtumas yra konkrečios sąlygos, ne pati gynyba.
KAS LAIMI ŠITAME ŽAIDIME
Trumpalaikiai laimėtojai aiškūs. OpenAI, Google, Microsoft ir kiti gauna kontraktus. Pentagonas gauna sistemas. Trump’o administracija gauna politinį tašką.
Bet ilgalaikis žaidimas atrodo kitaip. Jeigu DI saugos klausimai per artimiausius metus pasidarys realūs (deepfake atakos, autonominių sistemų klaidos, masinis stebėjimas), Anthropic bus vienintelė didžioji laboratorija, galinti pasakyti „mes įspėjome”. Tokia pozicija turi savo komercinę vertę. Apie Anthropic darbą su krikščionių lyderiais ties Claude moralė rašėme čia.
Disney šią savaitę su Anthropic pasirašė 1.5 mlrd. dolerių partnerystės sandorį. Google šią savaitę meta 40 mlrd. dolerių papildomų investicijų į Anthropic. Privatus sektorius už etiką moka.
KO MES, ŽIŪRINTYS IŠ ŠONO, GALIME PASIMOKYTI
Šitas atvejis yra retas pavyzdys, kai įmonė sako ne valdžiai dėl principų, ne dėl techninių apribojimų. Anthropic galėjo tiesiog pasakyti „mūsų modelis to negali padaryti”, priimti pinigus ir tylėti. Vietoj to jie viešai paaiškino, kodėl atsisako.
Ar tai brangu? Taip. Ar tai surizikavo įmonės ateitimi? Galbūt. Ar tai išaugino jų etinę poziciją kaip prekės ženklo elementą? Tikrai taip.
Tu kaip vertini? Ar Anthropic yra paskutinė viltis turėti DI bendrovę, kuri elgiasi pagal principus? Ar tai naivūs idealistai, kurie greitai dings nuo žemėlapio? Parašyk komentaruose.


