OpenAI, Anthropic ir Google susivienijo prieš Kinijos DI kopijavimą: Frontier Model Forum imasi veiksmų
·

Trys didžiausios JAV DI kompanijos, kurios paprastai konkuruoja tarpusavyje iki kraujo, rado bendrą priešą. Kinijos DI kompanijos kopijuoja amerikiečių modelius, ir dabar OpenAI, Anthropic bei Google veikia kartu per Frontier Model Forum, kad tai sustabdytų.
Kaip veikia DI kopijavimas
Technika vadinama adversarial distillation. Paprastai tariant: mažesnis modelis sistemingai klausinėja didesnį modelį ir iš jo atsakymų „išmoksta” tuos pačius gebėjimus. Tai kainuoja dešimtis ar šimtus kartų pigiau nei treniruoti modelį nuo nulio.
Kinijos kompanijos, ypač po DeepSeek sėkmės, aktyviai naudoja šią techniką. DeepSeek V4 jau turi trilijono parametrų modelį, ir dalis jo gebėjimų galimai atėjo būtent iš amerikiečių modelių distiliavimo.
Ką daro Frontier Model Forum
Trys kompanijos dalinasi informacija apie distiliavimo bandymus. Jos kuria aptikimo sistemas, kurios gali identifikuoti, kai kas nors sistemingai „siurbia” žinias iš jų modelių.
Tai ne pirmasis tokio pobūdžio bendradarbiavimas. Bet šį kartą jis konkretesnis nei bet kada anksčiau. Realios technologijos, realūs duomenys, realios grėsmės.
OpenAI ir Anthropic viešai pešasi dėl pajamų skaičių, bet kai kalbama apie Kiniją, jie staiga tampa geriausiais draugais. Verslas yra verslas, bet nacionalinis saugumas yra nacionalinis saugumas.
Platesnė geopolitinė šachmatų partija
Trump muitai jau kenkia JAV DI dominavimui, o DI talentų migracija į JAV sumažėjo 89 proc. Kinija tuo metu investuoja agresyviai ir naudoja kiekvieną galimą būdą sumažinti technologinį atotrūkį.
DI lenktynės seniai nebėra tik apie tai, kuris modelis geriau rašo eilėraščius. Tai geopolitinė kova, kurioje kiekviena pusė naudoja visas turimas priemones. Stanford ataskaita patvirtina: Kinija beveik pasivijo JAV.
Klausimas paprastas: ar atviri modeliai ir laisva prieiga prie DI yra vertybė, kurią verta ginti? Ar vis dėlto saugumas svarbiau?


