Київ • УНН
Директор з ШІ в ЦРУ Лакшмі Раман заявила про продуманий підхід до використання штучного інтелекту в спецслужбі. Вона наголосила на дотриманні етичних принципів та участі всіх зацікавлених сторін.
Є багато причин для скептицизму і занепокоєння з приводу використання ЦРУ штучного інтелекту. У лютому 2022 року сенатори Рон Вайден (демократ від штату Орегон) і Мартін Генріх (демократ від штату Нью-Мексико) у публічному листі повідомили, що ЦРУ, хоча йому зазвичай заборонено проводити розслідування щодо американців і американських компаній, збирає подібну інформацію в сховище даних.
Минулого року в доповіді Управління директора національної розвідки було показано, що американські спецслужби, включно з ЦРУ, купують дані про американців через таких брокерів даних, як LexisNexis і Sayari Analytics, без особливого нагляду.
Якби ЦРУ коли-небудь використовувало штучний інтелект для аналізу цих даних, багато американців, безсумнівно, виступили б проти. Це було б явним порушенням громадянських свобод і, через обмеженість можливостей ШІ, могло б призвести до вельми несправедливих наслідків.
Кілька досліджень показали, що алгоритми прогнозування злочинів від таких компаній, як Geolitica, легко піддаються впливу. Як приклад, вказується про загрозу непропорційної орієнтації на чорношкірі спільноти. Інші дослідження показують, що розпізнавання облич призводить до більш високого рівня помилкової ідентифікації чорношкірих людей, ніж білих.
Крім того, є спостереження, що навіть найкращий на сьогодні ШІ галюцинує або вигадує факти і цифри у відповідь на запити.
Однак Раман наполягає на тому, що ЦРУ не тільки дотримується всіх законів США, а й "дотримується всіх етичних принципів" і використовує ШІ "таким чином, щоб пом'якшити упередженість".
Розробка відповідального ШІ означає, що нам необхідна участь усіх зацікавлених сторін; це означає розробників ШІ, це означає наш офіс із захисту конфіденційності та громадянських свобод
Додатково
Незалежно від того, для чого призначена система ШІ, розробникам системи важливо чітко визначити області, в яких вона може зазнати невдачі. У нещодавньому дослідженні дослідники з Університету штату Північна Кароліна виявили, що інструменти штучного інтелекту, зокрема алгоритми розпізнавання облич і виявлення вогнепальних поранень, використовувалися поліцейськими, які не були знайомі з цими технологіями.
OpenAI робить ChatGPT "більш прямим, менш багатослівним"12 квітня 2024, 15:55 • 20595 переглядiв
Повідомляється, що як особливо кричущий приклад зловживання ШІ з боку правоохоронних органів, можливо, через незнання, поліція Нью-Йорка одного разу використовувала фотографії знаменитостей, спотворені зображення.
Будь-які результати, що генеруються ШІ, повинні бути чітко зрозумілі користувачами, і це, очевидно, означає маркування створеного ШІ контенту і надання чітких пояснень того, як працюють системи ШІ. Усе, що ми робимо в агентстві, ми робимо відповідно до наших законодавчих вимог і гарантуємо, що наші користувачі, наші партнери та зацікавлені сторони знають про всі відповідні закони, положення і керівні принципи, що регулюють використання наших систем штучного інтелекту, і ми дотримуємося їх". з усіма цими правилами