Teisėjas sustabdė Pentagoną: Anthropic laimėjo DI etikos mūšį teisme
·

Federalinė teisėja Rita Lin užblokavo JAV vyriausybės bandymą nubausti Anthropic. DI kompaniją, sukūrusią Claude asistentą (taip pat skaityk apie Claude Mythos) (plačiau apie Anthropic vs Pentagonas konfliktas). Priežastis? Anthropic atsisakė leisti Pentagonui naudoti savo DI be jokių apribojimų. Ir teismas pasakė. Tai jų teisė.
200 mln. dolerių kontraktas, kuris virto karu
Viskas prasidėjo 2025 m. liepą. Anthropic pasirašė 200 mln. dolerių kontraktą su Pentagonu. Skamba solidžiai, tiesa?
Bet tada derybos užstrigo.
Gynybos departamentas norėjo neriboto priėjimo prie Claude modelių, be jokių saugiklių, be jokių apribojimų. Anthropic atsakė paprastai: ne. Jie reikalavo garantijų, kad DI nebus naudojamas visiškai autonominiuose ginkluose ir masiniame vidaus sekime.
Kai Anthropic neatlyžo, gynybos sekretorius Hegseth 2026 m. vasarį paskelbė kompaniją „tiekimo grandinės rizika”. Toks terminas paprastai taikomas priešiškoms valstybėms. Ne amerikiečių kompanijoms.
Na, o tada prezidentas Trump nurodė federalinėms agentūroms nustoti naudoti Claude ir nutraukti ryšius su visais Anthropic partneriais. Trumpai tariant, bandė juos sunaikinti ekonomiškai.
Teisėja, kuri pasakė „stop”
Kovo 26 d. San Franciske federalinė teisėja Rita Lin priėmė preliminarų draudimą, blokuojantį vyriausybės veiksmus.
Jos žodžiai buvo tiesūs kaip strypas:
„Bausti Anthropic už tai, kad jie viešai atkreipė dėmesį į vyriausybės kontraktų poziciją, yra klasikinė neteisėta Pirmosios Pataisos keršto forma.”
Teismas pasakė, kad Anthropic turi didelę tikimybę laimėti bylą remiantis Pirmąja ir Penktąja Konstitucijos pataisomis. Kitaip tariant, vyriausybė perlenkė lazdą ir visi tai mato.
Ką tai reiškia visai DI industrijai?
Ši byla kuria precedentą visai DI industrijai. Ir ne bet kokį.
- DI kompanijos gali turėti etikos ribas: ir vyriausybė negali jų bausti už tai
- Skaidrumas yra saugomas: kompanijos gali viešai kalbėti apie vyriausybės reikalavimus
- DI ginkluose: kas kontroliuoja DI naudojimą karo tikslams, dar toli gražu neišspręstas klausimas
Ir štai kas svarbu. Kitos kompanijos. OpenAI, Google, Meta, neatsisakė karinių kontraktų. Anthropic yra viena iš nedaugelio, kuri brėžia aiškias linijas. Gali sutikti arba nesutikti su jų pozicija, bet drąsos jiems tikrai netrūksta.
Kodėl tau turėtų rūpėti
Net jei nesidomi politika, ši byla tiesiogiai veikia DI, kurį naudoji kasdien.
- Kas kuria DI, tas nustato taisykles: jei etikos besilaikančios kompanijos bus nustumtos, liks tik tos, kurioms nerūpi
- Europos pozicija, ES DI reglamentas draudžia tam tikrus DI panaudojimus. Anthropic pozicija artima europietiškai
- Tavo pasirinkimas svarbu: kokį DI asistentą naudoji (Claude, ChatGPT, Gemini), tai ir balsas už tam tikras vertybes
Tai kas toliau?
Anthropic pasakė „ne” Pentagonui, ir teismas palaikė jų poziciją. Tai gali būti tas momentas DI istorijoje, kai kompanija pirmą kartą teisiškai apgynė savo teisę nustatyti etikos ribas dirbtiniam intelektui.
Klausimas paprastas: ar kitos DI kompanijos paseks Anthropic pavyzdžiu? Ar tyliai pasiduos spaudimui ir darys ką lieps?
Tavo nuomonė, komentaruose.
Dažniausiai užduodami klausimai
Kodėl Anthropic atsisakė Pentagono kontrakto?
Anthropic neatsisakė kontrakto visiškai, jie norėjo apribojimų, kad Claude nebūtų naudojamas autonominiuose ginkluose ar masiniame sekime. Pentagonas norėjo neriboto naudojimo.
Ar kitos DI kompanijos dirba su kariuomene?
Taip. OpenAI, Google ir Meta turi karinius kontraktus ir neatsisakė bendradarbiavimo su Pentagonu.
Kaip ši byla paveiks DI naudojimą Europoje?
ES DI reglamentas jau draudžia tam tikrus DI panaudojimus. Anthropic pozicija artima ES požiūriui, todėl ši byla stiprina argumentus už etišką DI reguliavimą.


