Робоча група при наглядовій раді ЄС з конфіденційності заявила, що зусилля OpenAI зі зменшення кількості неправдивих відповідей від їхнього чат-бота ChatGPT є недостатніми для досягнення повної відповідності правилам Європейського Союзу щодо обробки даних, передає УНН з посиланням на Reuters.
Хоча заходи, вжиті для дотримання принципу прозорості, корисні для уникнення неправильного тлумачення результатів ChatGPT, їх недостатньо для дотримання принципу точності даних
Минулого року, після занепокоєння від національних регуляторів, на чолі з італійською владою, щодо широко використовуваного сервісу штучного інтелекту, європейський орган, що координує національні органи з конфіденційності, створив робочу групу щодо ChatGPT.
"Насправді, через імовірнісний характер системи, нинішній підхід до навчання призводить до моделі, яка також може давати упереджені або вигадані результати. Крім того, результати, надані ChatGPT, ймовірно, будуть сприйняті кінцевими користувачами як фактично точні, включаючи інформацію, що стосується окремих осіб, незалежно від їх фактичної точності", – йдеться у звіті.
Нагадаємо
OpenAI підписав угоду, з ймовірною вартістю понад 250 мільйонів доларів з News Corp (американський транснаціональний медіахолдинг). Завдякі угоді планується навчити ChatGPT працювати з архівами низки відомих ЗМІ. ШІ отримає доступ до контенту, який захищено авторським правом.