ЮАР отозвала политику в области ИИ после того, как было обнаружено, что её писал ИИ

 • 2702 переглядiв

ЮАР отозвала проект стратегии по ИИ из-за обнаружения шести вымышленных нейросетью ссылок. Министр связи заявил о подрыве доверия к документу.

Южная Африка решила отозвать проект своей национальной политики в области ИИ после того, как выяснилось, что некоторые правила были сгенерированы с помощью ИИ и ссылались на вымышленные источники, пишет УНН со ссылкой на The Independent.

Детали

Министр связи страны Солли Малатси отозвал проект политики после того, как обнаружил, что как минимум 6 из 67 академических ссылок были сгенерированы ИИ и содержали ссылки на несуществующие научные статьи.

"Наиболее правдоподобное объяснение заключается в том, что сгенерированные ИИ ссылки были включены без надлежащей проверки. Этого не должно было произойти", - сказал Малатси.

"Этот провал - не просто техническая проблема, а подорванная целостность и доверие к проекту политики", - написал он в сообщении в X.

Проект политики был представлен для общественного обсуждения и направлен на позиционирование страны как лидера в области инноваций в сфере ИИ, одновременно пытаясь решить этические, социальные и экономические проблемы, связанные с использованием ИИ.

В нем изложены планы по созданию новых институтов в стране для надзора за использованием ИИ, включая национальную комиссию по ИИ, совет по этике ИИ и регулирующий орган по ИИ.

В проекте правил также изложены планы по предоставлению налоговых льгот, грантов и субсидий для поощрения сотрудничества частного сектора в создании инфраструктуры ИИ в стране.

Ожидается, что он будет пересмотрен перед повторной публикацией для общественного обсуждения.

Проблема всплыла на поверхность, когда южноафриканское издание News24 обнаружило, что как минимум 6 из 67 академических ссылок в документе не существовали, тогда как журналы, на которые они ссылались, были реальными.

Редакторы журналов, включая South African Journal of Philosophy, AI & Society и Journal of Ethics and Social Philosophy, независимо подтвердили, что цитируемые статьи были фейковыми.

Министр связи заявил, что будут последствия для тех, кто отвечал за разработку политики.

"Эта неприемлемая оплошность доказывает, почему бдительный человеческий контроль за использованием искусственного интеллекта имеет решающее значение. Это урок, который мы усваиваем со смирением", - написал он в X.

Дополнение

Это подчеркивает растущую проблему использования генеративного ИИ учеными и администраторами для исследований и составления документов, отмечает издание.

Исследование, опубликованное в журнале Nature, показало, что более 2,5% научных статей, опубликованных в 2025 году, содержали как минимум одну потенциально вымышленную ссылку, по сравнению с 0,3% в 2024 году.

Это составляет более 110 000 статей, опубликованных в 2025 году, которые содержат недействительные ссылки, "вымышленные" искусственным интеллектом.

Это уверенные, но сфабрикованные результаты, генерируемые моделями ИИ, когда они чувствуют, что в их данных в этой области чего-то не хватает, пишет издание.

Большие языковые модели, такие как ChatGPT от OpenAI и Gemini от Google, предназначены для прогнозирования следующего возможного слова в последовательности слов, а не для проверки истинности.

К потенциально "опасной" ИИ-модели Mythos от Anthropic получили доступ без разрешения - СМИ22.04.26, 09:00

Юлия Шрамко Новости Мира
Популярные
Новости по теме