Исследователи OpenAI предупредили совет директоров об опасности ИИ накануне увольнения Альтмана - Reuters

Исследователи OpenAI предупредили совет директоров об опасности ИИ накануне увольнения Альтмана - Reuters

Киев  •  УНН

 • 35072 просмотра

Read in English

Исследователи из OpenAI отправили письмо правлению с предупреждением о важном прорыве в работе команды разработчиков искусственного интеллекта, который несет потенциальную опасность для человечества. Это письмо стало одной из причин увольнения генерального директора OpenAI Сэма Альтмана.

Накануне скандального увольнения генерального директора OpenAI Сэма Альтмана несколько штатных исследователей написали письмо совету директоров, в котором предупредили о мощном открытии в области искусственного интеллекта, которое может угрожать человечеству. Об этом сообщают источники Reuters, пишет УНН.

Детали

В своем письме к совету исследователи отметили потенциальную опасность ИИ, но источники не уточнили, о каких именно проблемах с безопасностью идет речь.

Источники говорят, что это письмо попало в длинный список претензий правления, которые привели к увольнению Альтмана. Среди причин были обеспокоенность относительно коммерциализации достижений до понимания последствий.

На днях сотрудники OpenAI получили внутреннее сообщение о том, что письмо к правлению и проект под названием Q*(произносится как Q-Star) были написаны до увольнения. Reuters пишет. Что некоторые в OpenAI считают, что Q* может стать прорывом в поисках стартапом так называемого искусственного общего интеллекта (AGI). При этом OpenAI определяет ИИ как автономные системы, которые превосходят человека в выполнении большинства экономически ценных задач. В частности, новая модель смогла решить ранее ей недоступные математические проблемы.

ЧИТАЙТЕ ТАКЖЕ: Microsoft добился возвращения Альтмана в OpenAI после скандального увольнения