Киев • УНН
Директор по ИИ в ЦРУ Лакшми Раман заявила о продуманном подходе к использованию искусственного интеллекта в спецслужбе. Она подчеркнула соблюдение этических принципов и участие всех заинтересованных сторон.
Есть много причин для скептицизма и беспокойства по поводу использования ЦРУ искусственного интеллекта. В феврале 2022 года сенаторы Рон Уайден (демократ от штата Орегон) и Мартин Генрих (демократ от штата Нью-Мексико) в публичном письме сообщили, что ЦРУ, хотя ему обычно запрещено проводить расследования в отношении американцев и американских компаний, собирает подобную информацию в хранилище данных.
В прошлом году в докладе Управления директора национальной разведки было показано, что американские спецслужбы, включая ЦРУ, покупают данные об американцах через таких брокеров данных, как LexisNexis и Sayari Analytics, без особого надзора.
Если бы ЦРУ когда-либо использовало искусственный интеллект для анализа этих данных, многие американцы, несомненно, выступили бы против. Это было бы явным нарушением гражданских свобод и, в силу ограниченности возможностей ИИ, могло бы привести к весьма несправедливым последствиям.
Несколько исследований показали, что алгоритмы прогнозирования преступлений от таких компаний, как Geolitica, легко поддаются влиянию. В качестве примера, указывается об угрозе непропорциональной ориентации на чернокожие сообщества. Другие исследования показывают, что распознавание лиц приводит к более высокому уровню ошибочной идентификации чернокожих людей, чем белых.
Кроме того, есть наблюдение, что даже самый лучший на сегодняшний день ИИ галлюцинирует или выдумывает факты и цифры в ответ на запросы.
Однако Раман настаивает на том, что ЦРУ не только соблюдает все законы США, но также "следует всем этическим принципам" и использует ИИ "таким образом, чтобы смягчить предвзятость".
Разработка ответственного ИИ означает, что нам необходимо участие всех заинтересованных сторон; это означает разработчиков ИИ, это означает наш офис по защите конфиденциальности и гражданских свобод
Дополнительно
Независимо от того, для чего предназначена система ИИ, разработчикам системы важно четко определить области, в которых она может потерпеть неудачу. В недавнем исследовании исследователи из Университета штата Северная Каролина обнаружили, что инструменты искусственного интеллекта, в том числе алгоритмы распознавания лиц и обнаружения огнестрельных ранений, использовались полицейскими, которые не были знакомы с этими технологиями.
Google, OpenAI и другие создают коалицию за безопасный ИИ19 июля 2024, 05:24 • 15316 просмотров
Сообщается, что в качестве особенно вопиющего примера злоупотребления ИИ со стороны правоохранительных органов, возможно, из-за незнания, полиция Нью-Йорка однажды использовала фотографии знаменитостей, искаженные изображения.
Любые результаты, генерируемые ИИ, должны быть четко поняты пользователями, и это, очевидно, означает маркировку созданного ИИ контента и предоставление четких объяснений того, как работают системы ИИ. Все, что мы делаем в агентстве, мы делаем в соответствии с нашими законодательными требованиями и гарантируем, что наши пользователи, наши партнеры и заинтересованные стороны знают обо всех соответствующих законах, положениях и руководящих принципах, регулирующих использование наших систем искусственного интеллекта, и мы соблюдаем их