Людство "має прокинутися" щодо потенційно катастрофічних ризиків, які являють собою потужні системи ШІ в найближчі роки, за словами керівника Anthropic Даріо Амодея, чия компанія є серед тих, хто розширює межі цієї технології, пише УНН з посиланням на Financial Times.
Деталі
Амодей в есе у понеділок окреслив ризики, які можуть виникнути, якщо технологія розвиватиметься безконтрольно - від масштабних втрат робочих місць до біотероризму.
"Людству ось-ось передадуть майже неймовірну владу, і до кінця незрозуміло, чи наші соціальні, політичні та технологічні системи мають зрілість, щоб нею володіти", - написав Амодей.
Есе стало суворим попередженням від одного з найвпливовіших підприємців у галузі ШІ про те, що запобіжні заходи щодо ШІ є недостатніми.
Амодей окреслює ризики, які можуть виникнути з появою того, що він називає "потужним штучним інтелектом" - систем, які будуть "набагато більш потужними, ніж будь-який лауреат Нобелівської премії, державний діяч чи технолог", - що, за його прогнозами, імовірно відбудеться в найближчі "кілька років".
Серед цих ризиків - потенціал для окремих осіб розробити біологічну зброю, здатну вбити мільйони або "у гіршому випадку навіть знищити все життя на Землі".
"Психічно неврівноважений одинак, здатний вчинити стрілянину в школі, але, імовірно, не здатний створити ядерну зброю або випустити чуму… тепер буде зведений до рівня здібностей вірусолога зі ступенем доктора наук", — написав Амодей.
Він також порушує питання потенційної можливості того, що ШІ "вийде з-під контролю і підпорядкує собі людство" або посилить авторитарних правителів та інших зловмисників, що призведе до "глобальної тоталітарної диктатури".
Амодей, чия компанія Anthropic є головним конкурентом розробника ChatGPT OpenAI, зіткнулася з Девідом Саксом, ШІ та крипто-"царем" президента США Дональда Трампа, щодо напрямку регулювання США.
Він також порівняв плани адміністрації продавати передові чипи штучного інтелекту Китаю з продажем ядерної зброї Північній Кореї.
Минулого місяця Трамп підписав виконавчий указ, щоб перешкодити зусиллям на рівні штатів щодо регулювання компаній, що займаються штучним інтелектом, і минулого року опублікував план дій щодо штучного інтелекту, у якому викладено плани щодо прискорення інновацій у США.
У своєму есе Амодей попередив про масштабні втрати робочих місць та "концентрацію економічної могутності" та багатства в Кремнієвій долині в результаті розвитку штучного інтелекту.
"Це пастка: штучний інтелект настільки потужний, такий блискучий приз, що людській цивілізації дуже важко взагалі накласти на нього якісь обмеження", - додав він.
Завуальовано посилаючись на суперечку навколо Grok AI Ілона Маска, Амодей написав, що "деякі компанії, що займаються штучним інтелектом, продемонстрували тривожну недбалість щодо сексуалізації дітей у сучасних моделях, що змушує мене сумніватися, що вони виявлять або схильність, або здатність враховувати ризики автономії в майбутніх моделях".
Проблеми безпеки штучного інтелекту, такі як біологічна зброя, автономна зброя та зловмисні дії державних суб'єктів, займали чільне місце в публічному дискурсі у 2023 році, частково завдяки попередженням таких лідерів, як Амодей, зазначає видання.
Політичні рішення щодо штучного інтелекту все частіше зумовлені бажанням скористатися можливостями, що надаються новою технологією, а не пом'якшити її ризики, за словами Амодея.
"Ці коливання є прикрими, оскільки сама технологія не переймається тим, що модно, і ми значно ближче до реальної небезпеки у 2026 році, ніж у 2023 році", - написав він.
Амодей був одним із перших співробітників OpenAI, але залишив його, щоб стати співзасновником Anthropic у 2020 році після конфлікту із Семом Альтманом щодо напрямку OpenAI та обмежень у галузі ШІ.
Anthropic веде переговори з такими групами, як Microsoft та Nvidia, а також з інвесторами, включаючи сінгапурський суверенний фонд багатства GIC, Coatue та Sequoia Capital, про раунд фінансування у 25 мільярдів доларів або більше, що оцінює компанію в 350 мільярдів доларів, пише видання.
ШІ у сучасній зброї: чому тема стала актуальною, та які ризики несе17.10.25, 10:15 • [views_157737]
