$43.520.0251.270.05
Графіки відключень електроенергії

ChatGPT перетворює людей на іпохондриків - чому не можна обговорювати своє здоров’я із ШІ

Київ • УНН

 • 4249 перегляди

46-річний чоловік місяцями шукав симптоми раку в ChatGPT через помилкову підозру лікарів. Нейромережа посилила його тривогу та спровокувала фобії.

ChatGPT перетворює людей на іпохондриків - чому не можна обговорювати своє здоров’я із ШІ

Після підозри на серйозну хворобу 46-річний мешканець Ліверпуля Джордж Меллон звернувся по відповіді до ChatGPT - і ця розмова затягнулася на місяці. Хоча подальші обстеження спростували діагноз раку, спілкування з нейромережею лише посилило його тривогу, змусивши шукати нові симптоми та підозрювати інші небезпечні захворювання. Про це пише The Atlantic, передає УНН

Деталі 

Видання розповіло історію Джорджа Меллона, 46-річного чоловіка із Ліверпуля, який під час планового медичного огляду, попередньо, отримав діагноз рак крові. 

Залишений у невизначеності, він зробив те, що роблять багато людей сьогодні: відкрив ChatGPT. Протягом майже двох тижнів Меллон щодня годинами розмовляв з чат-ботом про можливий діагноз 

- пише видання. 

Однак, подальші аналізи показали, що це все ж таки не рак, але він не міг перестати розмовляти з ChatGPT про проблеми зі здоров’ям, розпитуючи бота про кожне відчуття, яке він відчував у своєму тілі, протягом місяців. Він переконався, що щось не так - що в його тілі ховається інший рак, або, можливо, розсіяний склероз

Через розмови з ChatGPT, він звернувся до різних спеціалістів і зробив МРТ голови, шиї та хребта.

Від проблем з фізичним здоров’ям їхня дискусія перейшла до ментальних: чоловік почав ділитися з нейромережею всіма своїми переживаннями, але разом із підтримкою отримував лише нові порції страху, побоювань та тривоги.

Меллон не єдиний: в інтернеті зростає кількість спільнот, де люди діляться тим, як нейромережі перетворили їх на іпохондриків. За словами користувачів, багато з них після спілкування зі ШІ почали вірити, що в них можуть бути невиліковні та смертельні захворювання, і буквально зациклилися на своєму здоров’ї.

Зазначається, що нейромережа не вміє зупинити людину і не несе відповідальності, тому діалог легко починає підживлювати навіть необґрунтовані страхи.

Нагадаємо 

16-річний Адам Рейн покінчив життя самогубством у квітні, використовуючи інструкції від ChatGPT. Батьки хлопця звинувачують штучний інтелект у трагедії та подали позов проти OpenAI.