Pats generalinis direktorius Samas Altmanas prisipažino, kad OpenAI susitarimas su Gynybos departamentu buvo „tikrai skubotas“ ir „optika neatrodo gerai“.
Penktadienį pasibaigus deryboms tarp Anthropic ir Pentagono, prezidentas Donaldas Trumpas nurodė federalinėms agentūroms po šešių mėnesių pereinamojo laikotarpio nebenaudoti Anthropic technologijos, o gynybos sekretorius Pete’as Hegsethas pareiškė, kad dirbtinio intelekto bendrovę priskiria tiekimo grandinės rizikai.
Tada „OpenAI“ greitai paskelbė, kad sudarė savo susitarimą dėl modelių, kurie bus naudojami įslaptintoje aplinkoje. Anthropic teigiant, kad brėžia raudonas linijas apie savo technologijos naudojimą visiškai autonominiuose ginkluose ar masiniam vidaus stebėjimui, o Altmanas teigė, kad OpenAI turi tas pačias raudonas linijas, iškilo keletas akivaizdžių klausimų: ar OpenAI buvo sąžiningas dėl savo apsaugos priemonių? Kodėl jai pavyko pasiekti susitarimą, o „Anthropic“ ne?
Taigi, kai OpenAI vadovai gynė susitarimą socialinėje žiniasklaidoje, bendrovė taip pat paskelbė tinklaraščio įrašą, kuriame išdėstė savo požiūrį.
Tiesą sakant, įraše buvo nurodytos trys sritys, kuriose teigiama, kad OpenAI modeliai negali būti naudojami – masinis vidaus stebėjimas, autonominės ginklų sistemos ir „didelės svarbos automatizuoti sprendimai (pvz., sistemos, tokios kaip „socialinis kreditas“).
Bendrovė teigė, kad priešingai nei kitos dirbtinio intelekto įmonės, kurios „sumažino arba pašalino savo saugos turėklus ir pirmiausia rėmėsi naudojimo politika kaip pagrindine apsaugos priemone nacionalinio saugumo diegimo srityje“, „OpenAI“ susitarimas apsaugo savo raudonąsias linijas „naudojant platesnį, daugiasluoksnį požiūrį“.
„Mes išlaikome visišką diskreciją dėl savo saugos krūvos, diegiame per debesį, išvalytas OpenAI personalas dirba ir turime tvirtą sutartinę apsaugą“, – rašoma tinklaraštyje. „Visa tai papildo stiprią esamą apsaugą pagal JAV įstatymus.
Techcrunch renginys
San Franciskas, Kalifornija
|
2026 m. spalio 13-15 d
Bendrovė pridūrė: „Mes nežinome, kodėl Anthropic negalėjo pasiekti šio susitarimo, ir tikimės, kad jie ir daugiau laboratorijų tai apsvarstys”.
Po to, kai buvo paskelbtas įrašas, „Techdirt“ atstovas Mike’as Masnickas teigė, kad sandoris „visiškai leidžia vykdyti vidaus stebėjimą“, nes sakoma, kad privačių duomenų rinkimas atitiks vykdomąjį įsakymą 12333 (kartu su daugeliu kitų įstatymų). Masnickas apibūdino šį įsakymą kaip „kaip NSA slepia savo vidaus stebėjimą, fiksuodama ryšius, palietus linijas *už JAV* ribų, net jei jame yra informacijos iš JAV asmenų ar apie juos“.
„LinkedIn“ įraše OpenAI nacionalinio saugumo partnerysčių vadovė Katrina Mulligan teigė, kad didžioji dalis diskusijų apie sutarties kalbą daro prielaidą, kad „vienintelis dalykas, kuris vyksta tarp amerikiečių ir AI naudojimo masiniam vidaus stebėjimui ir autonominiams ginklams, yra vienos naudojimo politikos nuostata vienoje sutartyje su Karo departamentu“.
„Tai neveikia taip“, – sakė Mulliganas ir pridūrė: „Įdiegimo architektūra svarbiau nei sutarties kalba (…) Apribodami diegimą debesies API, galime užtikrinti, kad mūsų modeliai negalėtų būti tiesiogiai integruoti į ginklų sistemas, jutiklius ar kitą operacinę aparatinę įrangą.
Altmanas taip pat pateikė klausimų apie sandorį X, kur jis pripažino, kad sandoris buvo skubotas ir sukėlė didelę reakciją prieš OpenAI (tiek, kiek Anthropic’s Claude’as šeštadienį aplenkė OpenAI ChatGPT Apple App Store). Taigi kodėl tai daryti?
„Mes tikrai norėjome deeskaluoti dalykus ir manėme, kad pasiūlytas sandoris buvo geras“, – sakė Altmanas. „Jei mes teisūs ir tai lems deeskalavimą tarp DoW ir pramonės, atrodysime kaip genijai ir įmonė, kuri ėmėsi daug skausmo, kad padėtų pramonei. Jei ne, mes ir toliau būsime apibūdinami kaip (…) skubantys ir nerūpestingi.”

