doslidnyky-openai-poperedyly-radu-dyrektoriv-pro-nebezpeku-shi-naperedodni-zvilnennia-altmana-reuters

Дослідники OpenAI попередили раду директорів про небезпеку ШІ напередодні звільнення Альтмана - Reuters

 • 35072 переглядiв

Напередодні скандального звільнення генерального директора OpenAI Сема Альтмана кілька штатних дослідників написали листа раді директорів, в якому попередили про потужне відкриття в області штучного інтелекту, яке може загрожувати людству. Про це повідомляють джерела Reuters, пише УНН.

Деталі

У своєму листі до ради дослідники відзначили потенційну небезпеку ШІ, але джерела не уточнили, про які саме проблеми з безпекою йдеться.

Джерела говорять, що цей лист потрапив до довгого списку претензій правління, що призвели до звільнення Альтмана. Серед причин були занепокоєння щодо комерціалізації досягнень до розуміння наслідків.

Днями співробітники OpenAI отримали внутрішнє повідомлення про те, що лист до правління та проект під назвою Q*(вимовляється як Q-Star) були написані до звільнення. Reuters пише. Що дехто в OpenAI вважає, що Q* може стати проривом у пошуках стартапом так званого штучного загального інтелекту (AGI). При цьому OpenAI визначає ШІ як автономні системи, які перевершують людину у виконанні більшості економічно цінних завдань. Зокрема, нова модель змогла вирішити раніше їй недоступні математичні проблеми.

ЧИТАЙТЕ ТАКОЖ: Microsoft домігся повернення Альтмана в OpenAI після скандального звільнення

Анастасія Рябоконь

Технології

    Популярні

    Новини по темі

    Ілон Маск заявив, що X знову показуватиме заголовки

     • 25423 переглядiв

    У Німеччині провели рейди в будинках прихильників ХАМАС

     • 20192 переглядiв

    В окупованому Криму повідомили про вибухи та стрілянину

     • 20758 переглядiв