Федеральний консультативний орган у Канаді закликав служби безпеки країни розкрити інформацію про поточне та майбутнє використання систем штучного інтелекту (ІІ) та програмних додатків. У новій доповіді Консультативна група прозорості національної безпеки також запропонувала уряду розглянути можливість внесення змін до законодавства для нагляду за використанням ІІ федеральними агентствами, повідомляє Castanet, передає УНН.
Деталі
Група, створена у 2019 році, продовжує працювати над підвищенням прозорості та підзвітності в сфері національної безпеки, що є важливою частиною урядової програми з відкритості. Канадські служби безпеки заявили про підтримку ідеї відкритості, але наголосили, що специфіка їхньої роботи обмежує можливості публічного розголошення інформації. Попри це, вони вже активно використовують ІІ для виконання різних завдань, таких як переклад документів та виявлення погроз.
У доповіді також наголошується на важливості інформування громадськості про цілі та завдання служб безпеки, зокрема при співпраці з приватним сектором, щоб уникнути недовіри. Одна з ключових проблем — це складність пояснення роботи ІІ через непрозорість алгоритмів та моделей машинного навчання.
Канада вже випустила керівництво з використання ІІ та запропонувала Закон про штучний інтелект та дані, який наразі розглядається парламентом. Однак, закон не поширюється на державні установи, такі як служби безпеки, що спричинило рекомендації консультативної групи розширити його дію.
У доповіді також згадується випадок з 2021 року, коли Королівська канадська кінна поліція порушила закон, використовуючи програмне забезпечення для розпізнавання облич, що призвело до створення Програми впровадження технологій для оцінки відповідності методів збору даних законодавству про конфіденційність.
Міністерство громадської безпеки Канади повідомило, що рекомендації доповіді були передані відповідним органам, але не уточнило, чи буде їх реалізовано, і коли це може статися.
Як штучний інтелект допоможе вивчати англійську мову? Пояснюють фахівці Grade15.08.24, 14:29