"Вдумчивый подход" к ИИ: представитель ЦРУ заверяет, что в спецслужбе "следуют всем этическим принципам"
Киев • УНН
Директор по ИИ в ЦРУ Лакшми Раман заявила о продуманном подходе к использованию искусственного интеллекта в спецслужбе. Она подчеркнула соблюдение этических принципов и участие всех заинтересованных сторон.
Вопреки беспокойству по поводу целей и методов использования искусственного интеллекта в ЦРУ, по словам Лакшми Раман, директора по ИИ в Центральном разведывательном управлении США, - используется продуманный подход при участии всех заинтересованных сторон. Пишет УНН со ссылкой на TechCrunch и Es de Latino News.
Детали
Лакшми Раман, директор по ИИ в ЦРУ объяснила в своем интервью изданию TechCrunch, что генеративный ИИ важен для организации спецслужб с точки зрения работы с огромным объемом данных, которые необходимо классифицировать. Она также заверила, что несмотря на возможный скептицизм, в ЦРУ придерживаются продуманного подхода к искусственному интеллекту.
Я бы назвала это продуманным подходом (к ИИ – ред.). Я бы сказала, что подход, который мы применяем, заключается в том, что мы хотим, чтобы наши пользователи понимали как можно больше о системе искусственного интеллекта, которую они используют
Справочно
В СМИ не раз упоминалось, что ИИ может быть технологией "полной опасностей".
Есть много причин для скептицизма и беспокойства по поводу использования ЦРУ искусственного интеллекта. В феврале 2022 года сенаторы Рон Уайден (демократ от штата Орегон) и Мартин Генрих (демократ от штата Нью-Мексико) в публичном письме сообщили, что ЦРУ, хотя ему обычно запрещено проводить расследования в отношении американцев и американских компаний, собирает подобную информацию в хранилище данных.
В прошлом году в докладе Управления директора национальной разведки было показано, что американские спецслужбы, включая ЦРУ, покупают данные об американцах через таких брокеров данных, как LexisNexis и Sayari Analytics, без особого надзора.
Если бы ЦРУ когда-либо использовало искусственный интеллект для анализа этих данных, многие американцы, несомненно, выступили бы против. Это было бы явным нарушением гражданских свобод и, в силу ограниченности возможностей ИИ, могло бы привести к весьма несправедливым последствиям.
Несколько исследований показали, что алгоритмы прогнозирования преступлений от таких компаний, как Geolitica, легко поддаются влиянию. В качестве примера, указывается об угрозе непропорциональной ориентации на чернокожие сообщества. Другие исследования показывают, что распознавание лиц приводит к более высокому уровню ошибочной идентификации чернокожих людей, чем белых.
Кроме того, есть наблюдение, что даже самый лучший на сегодняшний день ИИ галлюцинирует или выдумывает факты и цифры в ответ на запросы.
Однако Раман настаивает на том, что ЦРУ не только соблюдает все законы США, но также "следует всем этическим принципам" и использует ИИ "таким образом, чтобы смягчить предвзятость".
Разработка ответственного ИИ означает, что нам необходимо участие всех заинтересованных сторон; это означает разработчиков ИИ, это означает наш офис по защите конфиденциальности и гражданских свобод
Дополнительно
Независимо от того, для чего предназначена система ИИ, разработчикам системы важно четко определить области, в которых она может потерпеть неудачу. В недавнем исследовании исследователи из Университета штата Северная Каролина обнаружили, что инструменты искусственного интеллекта, в том числе алгоритмы распознавания лиц и обнаружения огнестрельных ранений, использовались полицейскими, которые не были знакомы с этими технологиями.
Google, OpenAI и другие создают коалицию за безопасный ИИ19 июля 2024, 05:24 • 15816 просмотров
Сообщается, что в качестве особенно вопиющего примера злоупотребления ИИ со стороны правоохранительных органов, возможно, из-за незнания, полиция Нью-Йорка однажды использовала фотографии знаменитостей, искаженные изображения.
Любые результаты, генерируемые ИИ, должны быть четко поняты пользователями, и это, очевидно, означает маркировку созданного ИИ контента и предоставление четких объяснений того, как работают системы ИИ. Все, что мы делаем в агентстве, мы делаем в соответствии с нашими законодательными требованиями и гарантируем, что наши пользователи, наши партнеры и заинтересованные стороны знают обо всех соответствующих законах, положениях и руководящих принципах, регулирующих использование наших систем искусственного интеллекта, и мы соблюдаем их