Цитата
"Ми вперше в історії людства маємо щось, що буде набагато розумнішим за нас. Тому мені незрозуміло, (як) можна контролювати таку річ, але я думаю, що ми можемо прагнути спрямовувати це в напрямку, від якого виграє людство. Але я вважаю, що це один із екзистенційних ризиків, з якими ми стикаємося, потенційно найбільш нагальний", - сказав Маск на форумі, присвяченому безпеці ШІ.
Деталі
Маск, керівник компаній SpaceX, Tesla та соцмережі X, заявив, що під час саміту у Лондоні учасники прагнуть створити "стороннього арбітра", який міг би контролювати компанії, які розробляють штучний інтелект, і бити на сполох, якщо існують занепокоєння.
Віцепрезидентка США Камала Гарріс, яка також бере участь у саміті, закликала до термінових дій, щоб захистити громадськість і демократію від небезпек AI, включаючи упередженість, дискримінацію та поширення дезінформації. "Коли люди в усьому світі не можуть відрізнити факти від вигадки через потік міфів і дезінформації з підтримкою штучного інтелекту, я запитую, чи це не екзистенціально для демократії?" - сказала вона.
Відносини між Китаєм і Заходом складні в багатьох сферах, але віцеміністр країни Ву Чжаохуей сказав на конференції, що він прагне духу відкритості в ШІ: "Ми закликаємо до глобальної співпраці, щоб обмінюватися знаннями та робити технології ШІ доступними для громадськості".
ЧИТАЙТЕ ТАКОЖ: Маск та група експертів закликали припинити "гігантські експерименти зі штучним інтелектом"
Попри застереження про небезпеку технології зокрема з боку Ілона Маска, чимало експертів кажуть, що ці занепокоєння перебільшені. Як пише BBC, багато спостерігачів вважають, що найбільша загроза штучного інтелекту полягає в автоматизації робочих місць людей або вбудовуванні наявних упереджень у нові, набагато потужніші онлайн-системи.
Нік Клегг, президент із глобальних питань Meta та колишній віцепрем'єр-міністр Великої Британії, який також бере участь у саміті, сказав, що люди не повинні дозволяти "спекулятивним, іноді дещо футуристичним прогнозам" витіснити більш нагальні проблеми.
Доповнення
Дводенний британський саміт зі штучного інтелекту зібрав глав держав і технологічних гігантів на тлі занепокоєння, що нова технологія може становити небезпеку для людства. Зустріч буде зосереджена на розробці стратегії глобальних скоординованих зусиль для усунення ризиків і неправильного використання інструментів ШІ.
Як повідомляє британський уряд, на саміті обговорюють 5 напрямків: спільне розуміння ризиків ШІ, просування міжнародної співпраці з питань безпеки AI, визначення дій окремих організацій для підвищення безпеки у галузі, оцінка напрямків і стандартів для управління галуззю, демонстрування того, як безпечна розробка штучного інтелекту дозволить використовувати технологію на благо людства.
Участь у форумі беруть керівники провідних технологій та AI компанії, зокрема Anthropic, Google DeepMind, IBM, Meta, Microsoft, Nvidia, OpenAI і Tencent.
28 країн, представники яких беруть участь у події, підписали Декларацію Блетчлі, де вони погодились, що існує нагальна потреба розуміти потенційні ризики ШІ та спільно керувати ними. Серед цих держав, окрім Британії та держав ЄС: США, Китай, Ізраїль, Корея, Індія, Індонезія, Україна.
"Існує потенціал для серйозної, навіть катастрофічної, шкоди, навмисної чи ненавмисної, що випливає з найважливіших можливостей цих моделей ШІ, - ідеться у документі. - Багато ризиків, пов'язаних зі штучним інтелектом, за своєю природою є міжнародними, тому їх найкраще вирішувати шляхом міжнародної співпраці".
Наступний такий саміт буде проведено віртуально в Кореї через пів року, а за рік делегати знову зберуться для особистого обговорення у Франції.