У Google ввели заборону на розробку штучного інтелекту для військових
Київ • УНН
КИЇВ. 8 чернвя. УНН. Американська компанія Google не буде використовувати штучний інтелект для систем зброї або для спостереження, що порушує права людини, проте продовжуватиме взаємодіяти з урядовими відомствами і військовими. Про це йдеться в заяві генерального директора Google Сундара Пічаї, розміщеному в четвер у інтернет-блозі компанії, інформує УНН.
Опубліковані главою Google принципи були розроблені після протестів співробітників компанії проти роботи на Пентагон. Компанія планувала брати участь у проекті зі створення штучного інтелекту для військових безпілотників.
“Ми хочемо пояснити, що, хоча ми не розробляємо штучний інтелект для використання в озброєннях, ми продовжуємо нашу роботу з урядами і військовими у багатьох інших областях, — зазначив Пічаї. — Серед них — кібербезпека, навчання, призов на військову службу, охорону здоров’я для ветеранів, а також пошуково-рятувальні операції”.
У міру розвитку технологій створення штучного інтелекту, додав він, компанія має намір “взаємодіяти із зацікавленими сторонами”.
Гендиректор нагадав, що вже зараз технології штучного інтелекту і машинного навчання мають велике суспільне значення. Системи зі ШІ використовуються для прогнозування ризику виникнення пожеж, боротьби з раком, сільськогосподарських робіт і багатьох інших цілей. “Ми знаємо, що поява такої важливої технології ставить на порядок денний важливі питання щодо її застосування. Те, як буде розвиватися і застосовуватися штучний інтелект, матиме значний вплив на наше суспільство в майбутньому. Будучи лідером в області розробки штучного інтелекту, ми відчуваємо велику відповідальність. Тому сьогодні ми оголошуємо сім принципів, яких будемо дотримуватися в нашій роботі в майбутньому”, — написав він.
Використання штучного інтелекту, підкреслив він, має бути “соціально корисним”, оскільки прогрес у цій області зачіпає охорону здоров’я, безпеку, енергетику, транспорт, промислове виробництв і сферу розваг. Створення штучного інтелекту не повинно сприяти “несправедливим забобонам” у тому, що стосується раси, національної та гендерної ідентичності і політичних або релігійних поглядів, переконаний Пічаї. За його словами, при розробці штучного інтелекту будуть передбачені “надійні засоби забезпечення безпеки”, системи зі штучним інтелектом і зібрані такими системами дані повинні перебувати під контролем людей, при розробці таких систем повинні використовуватися найвищі наукові стандарти і компанія буде прагнути до того, щоб “обмежити шкоду” застосування таких систем.
Як стало відомо в лютому 2018 року, підрозділ Google Cloud займалося розробкою штучного інтелекту в рамках військового проекту Maven, в рамках якого штучний інтелект використовується для обробки відеозображень і може бути застосований для націлювання ударних безпілотників. Фахівці Google займалися питаннями машинного навчання, яке мало б дозволити дронам розрізняти окремі цілі за допомогою аналізу даних з відеокамер.
Керівництво компанії, у тому числі Фей-Фей Лі, глава проекту по розробці штучного інтелекту в Google Cloud, намагалося приховати від громадськості участь в проекті Maven, писала в травні The New York Times. Зокрема, співробітникам було заборонено обговорювати проект електронною поштою, щоб виключити ризик витоку даних.
Після публікації видання Gizmodo про участь Google в дослідженнях Пентагону, близько 4 тис. співробітників компанії, за даними газети, підписали петицію проти цього контакту, а деякі — звільнилися. Зі свого боку керівництво Google заявило, що не буде намагатися продовжити контракт із Пентагоном за даною програмою, термін дії якого закінчується наступного року, і розробить рекомендації щодо застосування систем зі штучним інтелектом.