ucheni-vyiavyly-shcho-shi-mozhe-prykydatysia-mensh-rozumnymy-nizh-ye-naspravdi

Учені виявили, що ШІ може прикидатися менш розумними, ніж є насправді

 • 20960 переглядiв

Нове дослідження показує, що передові моделі штучного інтелекту досить добре вміють видавати себе менш розумними, ніж вони є, що може мати величезні наслідки, оскільки вони продовжуватимуть розумнішати, повідомляє Futurism, пише УНН.

Деталі

У статті, опублікованій у журналі PLOS One, дослідники з Берлінського університету Гумбольдта виявили, що при тестуванні великої мовної моделі (LLM) за так званими критеріями "теорії розуму" вони виявили, що IІ не тільки може імітувати етапи вивчення мови, які спостерігаються у дітей, але, здається, також показує щось схоже на розумові здібності, пов'язані з цими етапами.

В інтерв'ю PsyPost науковий співробітник Університету Гумбольдта та основний автор дослідження Анна Маклова, яка також є експертом у галузі психолінгвістики, пояснила, як область її досліджень пов'язана з цим захоплюючим відкриттям.

"Завдяки психолінгвістиці ми маємо відносно повне розуміння того, на що здатні діти у різному віці, - сказала Марклова виданню. - Зокрема, важливу роль відіграє теорія розуму, оскільки вона досліджує внутрішній світ дитини, і її нелегко наслідувати, спостерігаючи прості статистичні закономірності".

Спираючись на теорію розуму, орієнтовану на дітей, дослідник та її колеги з Карлового університету в Празі спробували визначити, чи можуть такі LLM, як GPT-4 від OpenAI, "прикидатися менш здібними, ніж вони є".

Щоб з'ясувати це, дослідницька група, переважно з Чехії, доручила моделям поводитися як діти віком від одного до шести років, даючи відповіді. Пройшовши через більш ніж 1000 випробувань та когнітивних тестів, ці "модельовані дитячі особи" дійсно розвивалися майже так само, як і діти цього віку, і, зрештою, продемонстрували, що моделі можуть вдавати, що вони менш розумні, ніж вони є.

"Великі мовні моделі, - зазначила Марклова, - здатні симулювати нижчий інтелект, ніж вони мають".

Як попереджається у статті, антропоморфізація ШІ, хоча, можливо, і є "корисним умовним означенням" для розуміння цих моделей з людської точки зору, загалом некорисна. Натомість пропонується нова теорія розуму, яка змінює парадигму з того, чи є моделі "хорошими" або "поганими", "корисними" чи "некорисними", на те, наскільки добре вони можуть "конструювати особистості", наприклад, дитячі зі своїх експериментів.

Зрештою, як розповіла Маклова, ці результати можуть допомогти розвитку штучного надінтелекту (ASI), наступного кроку після загального штучного інтелекту (AGI) людського рівня, та допомогти зробити його безпечнішим, коли ми це зробимо.

"Під час розробки... ASI ми повинні бути обережними і не вимагати, щоб вони імітували людський і, отже, обмежений інтелект, - сказала вона PsyPost. - Окрім того, це свідчить про те, що ми можемо недооцінювати їхні можливості протягом тривалого періоду, що не є безпечною ситуацією".

Європейський парламент ухвалив перший в світі закон про регулювання ШІ13.03.24, 16:38

Популярні

Прозорість чи ширма: як АРМА передає активи в управління

 • 76456 переглядiв

7 новорічних фільмів для святкового настрою

 • 100791 переглядiв

Grimes каже, що Ілон Маск став "невпізнанним"

 • 109825 переглядiв

Новини по темі