Баланс между прогрессом и безопасностью: 50 лет назад ученые создали модель саморегулирования науки без политиков
Киев • УНН
В 1975 году на конференции в Асиломаре ученые разработали правила для исследований «неизведанных территорий» науки. Эти принципы саморегулирования стали основой для развития генной инженерии, нанотехнологий и ИИ.

Путь к саморегулированию без вмешательства политиков: 50 лет назад, 24 февраля 1975 года, состоялась конференция в Калифорнии, на которой были выработаны правила в исследованиях "неизведанных территорий" науки. Этот свод правил был важен на фоне начального развития синтетической биологии и нанотехнологий.
Сегодня научная саморегуляция актуальна в контексте развития достижений и угроз на основе искусственного интеллекта.
Передает УНН со ссылкой на ANSA.
Детали
Возможности генетической модификации бактерий, развитие производства лекарств, таких как инсулин, и в то же время риск получения потенциально опасных микроорганизмов: большие возможности и неизвестности побудили пионеров генно-инженерных исследований встретиться 50 лет назад, 24 февраля 1975 года в Асиломаре, штат Калифорния, чтобы установить кодекс правил для ориентации в исследованиях, когда осваиваются "неизведанные" и опасные "территории" науки.
Установленный свод саморегулирующихся правил помогли при открытии новых границ в исследовании синтетической биологии, нанотехнологий. Сейчас они важны в контексте того, что происходит с искусственным интеллектом.
То, что сделали биологи в то время, является хорошей моделью для изучения
Так же, как сегодня мы думаем о потенциальном развитии ИИ во многих секторах общества, еще в начале 1970-х годов технологии манипулирования ДНК открыли неожиданные возможности, говорится в материале ANSA.
Возможность переноса фрагмента ДНК из одного организма в другой для изучения его функций "позволила любому делать что угодно
Такая же обеспокоенность была высказана в 1973 году в письме, подписанном несколькими исследователями и опубликованном в журнале Science.
В 1974 году Берг и другие пионеры исследований ДНК призвали своих коллег остановиться для размышлений и объявить мораторий на свои эксперименты.
До тех пор, пока потенциальная опасность этих рекомбинантных молекул ДНК не будет лучше оценена или пока не будут разработаны адекватные методы предотвращения их распространения
Затем была организована встреча 150 исследователей, представителей правительственных и корпоративных учреждений и 16 журналистов в Асиломаре в 1975 году.
Оживленные дискуссии, которые привели к выработке правил безопасности, которые до сих пор являются образцом для всего мира.
С тех пор "Асиломар" стал символом способности научного сообщества к саморегулированию без вмешательства политиков и моделью для многих других пограничных отраслей, таких как синтетическая биология, нанотехнологии и искусственный интеллект.
Например, 5 января 2017 года в Асиломаре состоялась конференция по полезному искусственному интеллекту, организованная Институтом будущей жизни (Future of Life Institute). В этом случае также приняли участие многие исследователи из различных дисциплин, таких как экономика, этика и философия, хотя, в отличие от 1975 года, многие из участников являются представителями частных компаний.
Конференция в Асиломаре также повлияла на открытое письмо от 22 марта 2023 года, в котором более 30 000 человек, включая Илона Маска, выразили обеспокоенность относительно систем искусственного интеллекта, "которые могут представлять серьезные риски для общества и человечества".
Напомним,
Чат-бот Grok от xAI прекратил отвечать на запросы о дезинформации от Маска и Трампа. Изменения были внесены бывшим сотрудником без одобрения руководства компании.
Исследование Microsoft и Университета Карнеги-Меллона показало, что чрезмерное доверие к ИИ ухудшает когнитивные способности людей. В опросе 319 IT-специалистов выявлена прямая зависимость между уверенностью в ИИ и снижением критического мышления.