Исполнительный директор компании OpenAI, управляющей чат-ботом ChatGPT, Сэм Альтман выразил опасения, что до 1500 человек в неделю, преимущественно молодежь, могут планировать самоубийство с помощью чат-бота, прежде чем прибегнуть к этому. Разработчики чат-бота работают над созданием системы предотвращения таких ситуаций, в частности, информирования властей, сообщает УНН со ссылкой на The Guardian.
Детали
Сегодня количество пользователей которого оценивается в 700 миллионов. Альтман заявил, что решение научить систему предупреждать власти о таких чрезвычайных ситуациях еще не окончательное. Но он сказал, что "очень разумно, что в случаях, когда молодые люди серьезно говорят о самоубийстве, когда мы не можем связаться с родителями, мы звоним властям".
Альтман подчеркнул возможные изменения в интервью с подкастером Такером Карлсоном в среду, которое состоялось после того, как OpenAI и Альтмана подала в суд семья Адама Рейна, 16-летнего подростка из Калифорнии, покончившего жизнь самоубийством после того, что адвокат его семьи назвал "месяцами поддержки от ChatGPT".
Это помогло подростку понять, сработает ли его метод самоубийства. Чат-бот также предложил помочь ему написать предсмертную записку родителям, говорится в юридическом иске.
Альтман сказал, что проблема самоубийств пользователей не давала ему спать по ночам. Не было сразу понятно, к каким органам власти будут обращены или какую информацию имеет OpenAI, которой он может поделиться о пользователе. Речь идет о номерах телефонов или адресах, которые могут помочь в оказании помощи.
Это будет заметным изменением политики для компании с искусственным интеллектом, сказал Альтман, который подчеркнул, что "конфиденциальность пользователей действительно важна". Он сказал, что сейчас, если пользователь проявляет суицидальные мысли, ChatGPT призывает его "позвонить на горячую линию самоубийств".
После смерти Рейна в апреле компания стоимостью 500 миллиардов долларов заявила, что установит "более прочные защитные барьеры вокруг чувствительного контента и рискованного поведения" для пользователей в возрасте до 18 лет. Также будет введен родительский контроль, чтобы предоставить родителям "возможности получить больше понимания и влиять на то, как их подростки используют ChatGPT".
Еженедельно 15 000 человек совершают самоубийство. Около 10% мира общаются с ChatGPT. Это примерно 1500 человек в неделю, которые, если предположить, что это правильно, общаются с ChatGPT и все равно совершают самоубийство в конце. Они, вероятно, говорили об этом. Мы, вероятно, не спасли им жизнь. Возможно, мы могли бы сказать что-то лучше. Возможно, мы могли бы быть более проактивными. Возможно, мы могли бы дать немного лучший совет вроде: "Эй, тебе нужна эта помощь, или тебе нужно подумать об этой проблеме по-другому, или действительно стоит продолжать, и мы поможем тебе найти кого-то, с кем ты можешь поговорить"
Цифры самоубийств, похоже, являются общемировой оценкой. Всемирная организация здравоохранения утверждает, что ежегодно более 720 000 человек погибает из-за самоубийства.
Альтман также сказал, что ChatGPT будет останавливать некоторых уязвимых людей, которые манипулируют системой, чтобы получить советы по самоубийству, притворяясь, что они запрашивают информацию для вымышленной истории, которую они пишут, или медицинского исследования.
Сэм Альтман сказал, что было бы разумно "для несовершеннолетних пользователей и, возможно, пользователей, которые в целом находятся в уязвимых психических расстройствах", "лишить их определенной свободы".
Мы должны сказать: даже если вы пытаетесь написать историю или даже если вы пытаетесь провести медицинское исследование, мы просто не собираемся отвечать
Дополнение
OpenAI объявила о введении новых инструментов защиты в ChatGPT, которые помогут защитить подростков и пользователей, переживающих эмоциональный стресс.
