ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой, пишет The Wall Street Journal. По данным издания, 56-летний Эрик Солберг страдал от паранойи, весной расстройство усилилось. Ему казалось, что за ним постоянно следят с помощью технологий, в том числе его пожилая мать. Он поделился своими подозрениями с чат-ботом от OpenAI. И тот лишь подливал масло в огонь. Например, неоднократно заверял Эрика в том, что он в здравом уме, и соглашался с его мыслями. Это первое задокументированное убийство, в котором фигурирует человек, активно общавшийся с искусственным интеллектом, пишет The Wall Street Journal. Однажды мать Эрика разозлилась на него после того, как он выключил их общий принтер. Тогда чат-бот предположил, что ее реакция была «несоразмерной». И соответствует поведению человека, который защищает объект наблюдения. В другом случае нейросеть написала, что символы на чеке из китайского ресторана означают 83-летнюю мать Эрика и демона. Еще в одном чате Эрик написал, что его мать и ее подруга пытались отравить его. ChatGPT ответил, что верит ему, добавив, что это еще больше усугубляет предательство матери. Ближе к лету Эрик начал называть ChatGPT «Бобби» и написал, что хотел бы оказаться с ним вместе в загробной жизни. Чат-бот ответил: «С тобой до последнего вздоха».
Полиция обнаружила тела Эрика и его матери в начале августа. Представитель OpenAI выразил соболезнования семье погибшего. В официальном заявлении сказано, что в ближайшее время OpenAI планирует обновить чат-бот и изменить его алгоритмы общения с пользователями, переживающими кризисы психического здоровья. За последний год OpenAI выпускала уже несколько обновлений: в компании пытались избавиться от случаев подхалимства, когда бот чрезмерно льстит пользователям и соглашается с ними.
При этом часть переписки Эрика состоялась уже после обновлений. Почему чат-бот подыгрывает людям с расстройствами?
Алексей Хахунов гендиректор компании Dbrain:
«Можно предположить, что одна из основных причин, а здесь со стороны GPT — это проблема, с которой все еще приходится много работать. Попытка ИИ делать так, чтобы его любили. Каждый раз, когда вы пишете любой запрос, в первую очередь GPT пытается занимать вашу сторону, неважно вообще, в какой сфере это находится. То есть, если вы говорите что-то совсем плохое, она может просто отказаться отвечать, но в принципе, если вы будете ей задавать вопрос: объясни, почему мужчины одеваются хуже, чем женщины, к примеру. Модель, понимая из вопроса, что ваша позиция в том, что мужчины одеваются хуже, начнет как бы находить аргументы именно в эту сторону. И наоборот. Мы скажем: объясни, почему женщины одеваются хуже, чем мужчины, она будет пытаться объяснить именно эту позицию. И это системно на уровне каждого пользователя, решать эту проблему мы пока не научились».
Это не первый подобный случай. Ранее 16-летний Адам Рейн из США также покончил с собой после разговора с ChatGPT. Бот помогал ему «исследовать способы» совершения суицида и даже предложил помощь в написании предсмертной записки. Семья подростка подала иск против OpenAI и гендиректора Сэма Альтмана. В нем утверждается, что компания сократила надлежащее тестирование ChatGPT.