
Баланс між прогресом та безпекою: 50 років тому вчені створили модель саморегулювання науки без політиків
Київ • УНН
У 1975 році на конференції в Асіломарі вчені розробили правила для досліджень "незвіданих територій" науки. Ці принципи саморегулювання стали основою для розвитку генної інженерії, нанотехнологій та ШІ.
Шлях до саморегулювання без втручання політиків: 50 років тому, 24 лютого 1975 року, відбулася конференція в Каліфорнії, на якій було вироблено правила в дослідженнях "незвіданих територій" науки. Цей звід правил був важливий на тлі початкового розвитку синтетичної біології та нанотехнологій.
Сьогодні наукова саморегуляція актуальна в контексті розвитку досягнень та загроз на основі штучного інтелекту.
Передає УНН із посиланням на ANSA.
Деталі
Можливісті генетичної модифікації бактерій, розвиток виробництва ліків, таких як інсулін, і водночас ризик отримання потенційно небезпечних мікроорганізмів: великі можливості і невідомості спонукали піонерів генно-інженерних досліджень зустрітися 50 років тому, 24 лютого 1975 року в Асіломарі, штат Каліфорнія, щоб встановити кодекс правил для орієнтації в дослідженнях, коли освоюються "незвідані" і небезпечні "території" науки.
Встановлений звід правил, що саморегулюються, допоміг при відкритті нових кордонів у дослідженні синтетичної біології, нанотехнологій. Наразі вони важливі у контексті того, що відбувається зі штучним інтелектом.
Те, що зробили біологи в той час, є гарною моделлю для вивчення
Так само, як сьогодні ми думаємо про потенційний розвиток ШІ в багатьох секторах суспільства, ще на початку 1970-х років технології маніпулювання ДНК відкрили несподівані можливості, ідеться у матеріалі ANSA.
Можливість перенесення фрагмента ДНК з одного організму в інший для вивчення його функцій "дозволила будь-кому робити що завгодно
Таку саму стурбованість було висловлено 1973 року в листі, підписаному кількома дослідниками й опублікованому в журналі Science.
У 1974 році Берг та інші піонери досліджень ДНК закликали своїх колег зупинитися для роздумів і оголосити мораторій на свої експерименти.
Доти, доки потенційну небезпеку цих рекомбінантних молекул ДНК не буде краще оцінено або доки не буде розроблено адекватні методи запобігання їхньому поширенню
Потім була організована зустріч 150 дослідників, представників урядових і корпоративних установ та 16 журналістів в Асіломарі у 1975 році.
Жваві дискусії, які призвели до вироблення правил безпеки, що й досі є взірцем для всього світу.
Відтоді "Асіломар" став символом здатності наукової спільноти до саморегулювання без втручання політиків і моделлю для багатьох інших прикордонних галузей, таких як синтетична біологія, нанотехнології та штучний інтелект.
Наприклад, 5 січня 2017 року в Асіломарі відбулася конференція з корисного штучного інтелекту, організована Інститутом майбутнього життя (Future of Life Institute). У цьому випадку також взяли участь багато дослідників з різних дисциплін, таких як економіка, етика і філософія, хоча, на відміну від 1975 року, багато хто з учасників є представниками приватних компаній.
Конференція в Асіломарі також вплинула на відкритий лист від 22 березня 2023 року, в якому понад 30 000 людей, включно з Ілоном Маском, висловили занепокоєння щодо систем штучного інтелекту, "які можуть становити серйозні ризики для суспільства і людства".
Нагадаємо
Чат-бот Grok від xAI припинив відповідати на запити щодо дезінформації від Маска і Трампа. Зміни були внесені колишнім співробітником без схвалення керівництва компанії.
Дослідження Microsoft та Університету Карнегі-Меллона показало, що надмірна довіра до ШІ погіршує когнітивні здібності людей. В опитуванні 319 IT-фахівців виявлено пряму залежність між впевненістю в ШІ та зниженням критичного мислення.