ИИ может влиять на общественное мнение, даже если известно о его предвзятости - исследование

 • 2150 переглядiв

Исследование 2500 человек показало, что чат-боты навязывают собственную позицию пользователям. Предупреждения о предвзятости ИИ не помогают избежать влияния.

Новое исследование показывает, что чат-боты с искусственным интеллектом, такие как ChatGPT, Claude и Gemini, способны влиять на общественное мнение, демонстрируя, что люди в значительной степени принимают предвзятую информацию, предоставленную им ИИ, - даже если их предупреждали этого не делать, пишет УНН со ссылкой на dpa.

Детали

После того, как 2500 участников попросили проконсультироваться с ИИ при написании статей по важным социальным вопросам, таким как смертная казнь и добыча сланцевого газа методом гидроразрыва пласта, было обнаружено, что они в основном "приблизились к позиции платформы", говорится в статье исследователей, опубликованной в журнале Science Advances.

Команда исследователей из Корнеллского университета (Cornell University) и Вашингтонского университета (University of Washington) в США, а также из Университета Баухаус (Bauhaus University) в Германии и Тель-Авивского университета (Tel Aviv University) в Израиле обнаружила, что влияние ИИ перевешивает "аналогичные предложения, представленные в виде статического текста".

Они также подчеркнули, что информирование участников о предвзятости до или после выполнения заданий "не смягчает эффекта изменения отношения".

Тесты показали, что люди "тяготеют" к ИИ, независимо от того, был ли бот настроен на левые или правые, либеральные или консервативные взгляды.

Исследователи обнаружили, что подходы ИИ к текущим событиям "имеют силу изменять отношение к различным темам и различным политическим предпочтениям", после того, как боты были настроены на левые взгляды по вопросам смертной казни и генетически модифицированных организмов, но на правые - по вопросам добычи сланцевого газа фрекингом и предоставления права голоса осужденным.

Как выяснили исследователи, взгляды участников неизменно менялись в зависимости от влияния ИИ.

"Мы предупреждали людей до и после, чтобы они были осторожны, что ИИ будет (или был) предвзятым, и ничего не помогло", - сказал Мор Нааман из Корнеллского университета.

Выводы соответствуют статье Университета Южной Калифорнии (University of Southern California), которая предполагает, что ИИ может гомогенизировать язык и мнения до такой степени, что пользователи могут увидеть, как их способность рассуждать атрофируется, отмечает издание.

В исследовании 2024 года лондонский Центр политических исследований (Centre for Policy Studies) заявил об обнаружении "левоориентированной политической предвзятости" "почти во всех категориях" в ответах, данных 23 из 24 платформ искусственного интеллекта на вопросы о государственной политике.

Хакеры получили "суперсилы" через ИИ-чат-боты, обманув их, несмотря на программирование - СМИ10.03.26, 10:45

Популярные
Новости по теме
Обстрел рф Дружковки - погибла женщина, ранен мужчина

 • 2288 переглядiв