Европейский совет по защите данных заявил, что ChatGPT не соответствует стандартам точности данных
Киев • УНН
Усилия OpenAI по уменьшению количества ложных ответов от ChatGPT недостаточны для соблюдения правил обработки данных ЕС, поскольку модель искусственного интеллекта все еще может выдавать предвзятые или фиктивные результаты из-за своей вероятностной природы, согласно отчету надзорного органа ЕС по вопросам защиты приватности.
Рабочая группа при наблюдательном совете ЕС по конфиденциальности заявила, что усилия OpenAI по уменьшению количества ложных ответов от их чат-бота ChatGPT недостаточны для достижения полного соответствия правилам Европейского Союза по обработке данных, передает УНН со ссылкой на Reuters.
Хотя меры, принятые для соблюдения принципа прозрачности, полезны для избежания неправильного толкования результатов ChatGPT, их недостаточно для соблюдения принципа точности данных
В прошлом году, после беспокойства от национальных регуляторов, во главе с итальянскими властями, относительно широко используемого сервиса искусственного интеллекта, европейский орган, координирующий национальные органы по конфиденциальности, создал рабочую группу по ChatGPT.
"На самом деле, из-за вероятностного характера системы, нынешний подход к обучению приводит к модели, которая также может давать предвзятые или вымышленные результаты. Кроме того, результаты, предоставленные ChatGPT, вероятно, будут восприняты конечными пользователями как фактически точные, включая информацию, касающуюся отдельных лиц, независимо от их фактической точности", - говорится в отчете.
Напомним
OpenAI подписал соглашение, с вероятной стоимостью более 250 миллионов долларов с News Corp (американский транснациональный медиахолдинг). Благодаря сделке планируется научить ChatGPT работать с архивами ряда известных СМИ. ИИ получит доступ к контенту, который защищен авторским правом.