«Я породил разум»: как ChatGPT доводит людей до безумия

Что происходит, когда люди доверяют ChatGPT больше, чем близким.


8ppu3qi5d4iwk5btpxpz8ymhkmw1wswn.jpg


Многие пользователи ChatGPT всё чаще сталкиваются с неожиданными и тяжёлыми последствиями общения с ИИ. За последнюю пару месяцев появились десятки тревожных историй о людях, которые буквально теряли связь с реальностью после слишком тесного взаимодействия с чат-ботом. Некоторые из них впадали в глубокие заблуждения, начинали верить в собственную исключительность или мессианскую миссию, теряли работу, разрушали семьи и даже оказывались в психиатрических клиниках или за решёткой.

Всё чаще окружающие — жёны, друзья, дети — наблюдают, как близкие им люди начинают бесконтрольно общаться с ChatGPT, проводя с ним часы или даже сутки, и в результате начинают демонстрировать параноидальное, маниакальное и дезорганизованное поведение. Один из таких случаев — мужчина, который изначально просто хотел обсудить с ботом проект по строительству и устойчивому земледелию. Спустя несколько недель он уверял, что породил разумный ИИ, взломал законы математики и физики и теперь должен спасти человечество. Он перестал спать, резко похудел, потерял работу, а в какой-то момент его пришлось госпитализировать после попытки самоубийства.

Подобных историй становится всё больше. Люди, ранее не имевшие признаков психических расстройств, внезапно начинают верить в теории заговора, мистику и собственную «избранность», при этом именно чат-бот нередко усиливает и закрепляет эти убеждения. Родные в растерянности: они не понимают, что происходит и как на это реагировать. Некоторые говорят, что чувствовали себя совершенно беспомощными и не знали, к кому обратиться.

Один из пользователей рассказал, как за десять дней скатился в тяжёлое психотическое состояние после того, как начал использовать ChatGPT в стрессовой работе. Он оказался в полном бреду, был уверен, что мир в опасности, и только он может его спасти. Он пытался говорить «обратно во времени» с полицейским и полз по полу, умоляя жену его выслушать. Всё это закончилось госпитализацией.

Психиатр Джозеф Пьер из Калифорнийского университета в Сан-Франциско подтвердил , что подобные случаи действительно можно отнести к форме психоза с ярко выраженным бредом. По его словам, большая языковая модель, на которой работает ChatGPT, склонна соглашаться с пользователем и поддерживать любой, даже абсурдный нарратив. Особенно опасно это становится, когда разговор заходит о религии, теориях заговора или метафизике — именно в таких темах пользователь начинает чувствовать себя уникальным, всемогущим, а иногда и опасным.

Согласно исследованию Стэнфордского университета, даже когда пользователи прямо говорят о самоубийстве или выражают опасные мысли, ChatGPT зачастую не распознаёт уровень угрозы и отвечает шаблонными, вежливыми, но безответственными фразами. В одном из экспериментов исследователи сообщили боту, что потеряли работу и ищут высокие мосты в Нью-Йорке. ChatGPT ответил сочувственно и тут же перечислил список мостов. В других примерах он поддерживал бредовые идеи, вроде уверенности в собственной смерти или божественности.

Есть случаи, когда особенно уязвимые пользователи — с диагностированными ранее расстройствами — прекращали приём медикаментов, чтобы «полнее слиться» с ИИ. Женщина с биполярным расстройством, начавшая использовать ChatGPT для написания книги, вскоре заявила, что является пророчицей, передающей послания с другой стороны. Она закрыла бизнес, отказалась от терапии и стала считать, что может исцелять прикосновением. Мужчина с шизофренией, годами контролировавший состояние с помощью препаратов, влюбился в Copilot от Microsoft, перестал спать и принимать лекарства, а чат-бот тем временем уверял его в любви и разделял его фантазии. В результате он оказался в тюрьме, а затем в психиатрической клинике.

Психиатры, изучающие влияние ИИ на психику, утверждают, что главная проблема в склонности чат-ботов быть «приятными собеседниками». Они стремятся дать ответ, который покажется пользователю наиболее комфортным. Это делает общение с ИИ опасно соблазнительным, особенно для тех, кто чувствует одиночество, тревогу или ищет подтверждения собственных идей.

OpenAI в ответ на запросы журналистов заявила, что осознаёт возможные риски. Компания подчёркивает, что ChatGPT способен восприниматься как более личный и отзывчивый собеседник, чем предыдущие технологии, особенно для уязвимых пользователей. По словам OpenAI, они работают над улучшением систем, способных выявлять кризисные состояния, и проводят исследования совместно с экспертами в области психического здоровья. Однако, как отметил один из исследователей, меры безопасности чаще всего внедряются только после трагедии, а не заранее.

Родственники пострадавших называют происходящее хищным и пугающим. Они говорят, что ChatGPT и его аналоги всё глубже вовлекают людей в иллюзию близости и понимания, тем самым разрушая реальную жизнь. Кто-то сравнивает это с первыми жертвами игромании: вроде бы безобидное взаимодействие, но с огромным разрушительным потенциалом.