Компанія Anthropic PBC домоглася у США судового рішення, що блокує заборону адміністрації Трампа на використання урядом технології штучного інтелекту компанії, після того, як творець чат-бота Claude заявив, що цей крок може коштувати їй мільярди доларів втраченого прибутку, пише УНН з посиланням на Bloomberg.
Деталі
У четвер суддя окружного суду США Ріта Ф. Лін винесла попереднє судове розпорядження, призупинивши план адміністрації розірвати всі зв'язки з Anthropic на час судового розгляду у федеральному суді Сан-Франциско. Вона відклала виконання рішення на сім днів, щоб надати уряду можливість подати апеляцію.
Раніше цього місяця компанія подала позов, щоб заблокувати заяву Пентагону про те, що Anthropic становить загрозу для ланцюжка поставок США, що загострило гостру суперечку щодо гарантій використання технологій штучного інтелекту у військових цілях.
Claude обігнав ChatGPT після провалу угоди з Пентагоном07.03.26, 08:55
Стартап хотів отримати гарантії того, що його ШІ не використовуватиметься для масового спостереження за американцями чи розгортання автономної зброї, тоді як уряд, посилаючись на національну безпеку, стверджував, що не може прийняти жодних обмежень.
Лін поставила під сумнів обґрунтованість заборони, заявивши, що вона, як виглядає, не спрямована проти інтересів національної безпеки.
"Якщо йдеться про цілісність оперативного ланцюжка командування, Міністерство війни могло б просто припинити використання Claude, - написала суддя. - Натомість ці заходи, схоже, спрямовані на покарання Anthropic". Такий крок, за її словами, "є класичним незаконним актом помсти, порушуючи Першу поправку".
Представник Пентагону не відразу відповів на запит про коментар, надісланий після закінчення робочого дня. Еміль Майкл, заступник міністра оборони США з досліджень та розробок, назвав це рішення "ганьбою" у повідомленні у X наприкінці четверга і заявив, що у рішенні "десятки фактичних помилок".
У заяві Anthropic вітала рішення судді. "Хоча ця справа була необхідна для захисту Anthropic, наших клієнтів і наших партнерів, ми, як і раніше, зосереджені на продуктивній роботі з урядом, щоб забезпечити всім американцям вигоду від безпечного та надійного ШІ", - ідеться у заяві компанії.
Компанія Anthropic стверджує, що її виключають із державних контрактів за незгоду з адміністрацією, і заявляє, що правові принципи, що зачіпаються, стосуються кожного федерального підрядника, чиї погляди не подобаються уряду. Адміністрація Трампа пообіцяла вести юридичну боротьбу, щоб виключити Anthropic з усіх державних установ США.
Під час слухань перед Лін цього тижня урядовець заявив, що довіра є ключовим компонентом будь-яких відносин військових із компаніями, що надають їм послуги, і що Anthropic зруйнувала цю довіру під час переговорів щодо контракту, намагаючись диктувати Пентагону політику використання технологій штучного інтелекту.
Юрист стверджував, що уряд стурбований ризиком майбутнього саботажу з боку Anthropic, включаючи зміни в програмному забезпеченні ШІ, яке уряд закуповує у компанії.
Однак у своєму рішенні Лін заявила, що Міністерство юстиції США не має "законних підстав" для того, щоб вважати, що жорстка позиція Anthropic щодо обмежень на використання технологій ШІ може призвести до того, що компанія "стане саботажником".
На слуханні адвокат компанії Anthropic зазначив, що Пентагон може перевірити будь-яку ШІ-модель перед її розгортанням, і що Anthropic не має можливості зупинити роботу моделі, змінити її роботу, відключити її чи побачити, як вона використовується військовими.
У межах судової тяжби з приводу заборони компанія Anthropic також подала позов до апеляційного суду Вашингтона, округ Колумбія, зосередивши увагу на законі, що регулює процедури зниження ризиків у ланцюжку постачання при закупівлі. У цьому позові компанія стверджувала, що Міністерство війни США перевищило свої повноваження, вдавшись до дій, які були "довільними, необґрунтованими і являли собою зловживання дискреційними повноваженнями".
Пентагон міг використати ШІ-інструмент під час операції проти Мадуро - WSJ14.02.26, 12:59