balans-mezhdu-progressom-i-bezopasnostyu-50-let-nazad-uchenie-sozdali-model-samoregulirovaniya-nauki-bez-politikov

Баланс между прогрессом и безопасностью: 50 лет назад ученые создали модель саморегулирования науки без политиков

 • 27073 переглядiв

Путь к саморегулированию без вмешательства политиков: 50 лет назад, 24 февраля 1975 года, состоялась конференция в Калифорнии, на которой были выработаны правила в исследованиях "неизведанных территорий" науки. Этот свод правил был важен на фоне начального развития синтетической биологии и нанотехнологий.

Сегодня научная саморегуляция актуальна в контексте развития достижений и угроз на основе искусственного интеллекта.

Передает УНН со ссылкой на ANSA.

Детали

Возможности генетической модификации бактерий, развитие производства лекарств, таких как инсулин, и в то же время риск получения потенциально опасных микроорганизмов: большие возможности и неизвестности побудили пионеров генно-инженерных исследований встретиться 50 лет назад, 24 февраля 1975 года в Асиломаре, штат Калифорния, чтобы установить кодекс правил для ориентации в исследованиях, когда осваиваются "неизведанные" и опасные "территории" науки.

Ученые обнаружили: воспоминания из раннего детства, вероятно, сохраняются в мозге всю жизнь16.02.25, 20:38 • [views_119239]

Установленный свод саморегулирующихся правил помогли при открытии новых границ в исследовании синтетической биологии, нанотехнологий. Сейчас они важны в контексте того, что происходит с искусственным интеллектом.

То, что сделали биологи в то время, является хорошей моделью для изучения

- недавно заявил один из пионеров исследований в области искусственного интеллекта, лауреат Нобелевской премии Джеффи Гинтон.

Так же, как сегодня мы думаем о потенциальном развитии ИИ во многих секторах общества, еще в начале 1970-х годов технологии манипулирования ДНК открыли неожиданные возможности, говорится в материале ANSA.

Возможность переноса фрагмента ДНК из одного организма в другой для изучения его функций "позволила любому делать что угодно

- заметил  пионер этой технологии, лауреат Нобелевской премии Пол Берг.

Такая же обеспокоенность была высказана в 1973 году в письме, подписанном несколькими исследователями и опубликованном в журнале Science.

Apple готовит запуск нового ИИ в Китае: что известно о секретном проекте14.02.25, 06:05 • [views_45627]

В 1974 году Берг и другие пионеры исследований ДНК призвали своих коллег остановиться для размышлений и объявить мораторий на свои эксперименты.

До тех пор, пока потенциальная опасность этих рекомбинантных молекул ДНК не будет лучше оценена или пока не будут разработаны адекватные методы предотвращения их распространения

- предупреждали специалисты. 

Затем была организована встреча 150 исследователей, представителей правительственных и корпоративных учреждений и 16 журналистов в Асиломаре в 1975 году.

Оживленные дискуссии, которые привели к выработке правил безопасности, которые до сих пор являются образцом для всего мира. 

С тех пор "Асиломар" стал символом способности научного сообщества к саморегулированию без вмешательства политиков и моделью для многих других пограничных отраслей, таких как синтетическая биология, нанотехнологии и искусственный интеллект.

Например, 5 января 2017 года в Асиломаре состоялась конференция по полезному искусственному интеллекту, организованная Институтом будущей жизни (Future of Life Institute). В этом случае также приняли участие многие исследователи из различных дисциплин, таких как экономика, этика и философия, хотя, в отличие от 1975 года, многие из участников являются представителями частных компаний.

Конференция в Асиломаре также повлияла на открытое письмо от 22 марта 2023 года, в котором более 30 000 человек, включая Илона Маска, выразили обеспокоенность относительно систем искусственного интеллекта, "которые могут представлять серьезные риски для общества и человечества".                       

Напомним,

Чат-бот Grok от xAI прекратил отвечать на запросы о дезинформации от Маска и Трампа. Изменения были внесены бывшим сотрудником без одобрения руководства компании.

Исследование Microsoft и Университета Карнеги-Меллона показало, что чрезмерное доверие к ИИ ухудшает когнитивные способности людей. В опросе 319 IT-специалистов выявлена прямая зависимость между уверенностью в ИИ и снижением критического мышления.

Популярные
Новости по теме
Исландия удвоит оборонную поддержку Украины - премьер

 • 32287 переглядiв

В столице могут частично разрешить движение по Южному мосту

 • 39707 переглядiв