Дослідники OpenAI попередили раду директорів про небезпеку ШІ напередодні звільнення Альтмана - Reuters
Київ • УНН
Дослідники з OpenAI відправили листа правлінню з попередженням про важливий прорив у роботі команди розробників штучного інтелекту, який несе потенційну небезпеку для людства. Цей лист став однією з причин звільнення генерального директора OpenAI Сема Альтмана.
Напередодні скандального звільнення генерального директора OpenAI Сема Альтмана кілька штатних дослідників написали листа раді директорів, в якому попередили про потужне відкриття в області штучного інтелекту, яке може загрожувати людству. Про це повідомляють джерела Reuters, пише УНН.
Деталі
У своєму листі до ради дослідники відзначили потенційну небезпеку ШІ, але джерела не уточнили, про які саме проблеми з безпекою йдеться.
Джерела говорять, що цей лист потрапив до довгого списку претензій правління, що призвели до звільнення Альтмана. Серед причин були занепокоєння щодо комерціалізації досягнень до розуміння наслідків.
Днями співробітники OpenAI отримали внутрішнє повідомлення про те, що лист до правління та проект під назвою Q*(вимовляється як Q-Star) були написані до звільнення. Reuters пише. Що дехто в OpenAI вважає, що Q* може стати проривом у пошуках стартапом так званого штучного загального інтелекту (AGI). При цьому OpenAI визначає ШІ як автономні системи, які перевершують людину у виконанні більшості економічно цінних завдань. Зокрема, нова модель змогла вирішити раніше їй недоступні математичні проблеми.
ЧИТАЙТЕ ТАКОЖ: Microsoft домігся повернення Альтмана в OpenAI після скандального звільнення