Під пильною увагою активістів і батьків, OpenAI сформувала нову команду для вивчення та запобігання неправильному використанню чи зловживанню штучного інтелекту дітьми. Про це повідомляє TechCrunch, пише УНН.
Деталі
У новому списку вакансій на своїй сторінці OpenAI розкриває існування групи безпеки дітей, яка, за словами компанії, працює з політикою платформи, юридичними групами та групами розслідувань, а також із зовнішніми партнерами, щоб керувати "процесами, інцидентами та перевірками", що стосується неповнолітніх користувачів.
Зазначається, що команда шукає спеціаліста з безпеки дітей, який відповідатиме за дотримання політики OpenAI щодо контенту, створеного за допомогою ШІ, і працюватиме над процесами перевірки, пов'язаними з "конфіденційним" контентом.
Розробники виділяють значні ресурси на дотримання таких законів, як Закон США про захист конфіденційності дітей в Інтернеті, який встановлює контроль над тим, до чого діти можуть і не можуть отримати доступ, а також які компанії можуть збирати про них дані. Тому той факт, що OpenAI наймає експертів з безпеки дітей, не є сюрпризом, особливо якщо компанія очікує, що з'явиться значна база неповнолітніх користувачів. (Поточні умови використання OpenAI вимагають згоди батьків для дітей віком від 13 до 18 років та забороняють використання дітьми віком до 13 років.)
Доповнення
Діти та підлітки все частіше звертаються до інструментів GenAI за допомогою не тільки з приводу шкільного домашнього завдання, але й з особистих справ. Згідно з опитуванням громадської думки За даними Центру демократії та технологій, 29% дітей повідомляють, що використовують ChatGPT для боротьби зі стресом або проблемами психічного здоров'я, 22% — для проблем з друзями та 16% — для вирішення сімейних конфліктів.