В этой игре вы не игрок — вы приз. ChatGPT уже крутит рулетку
NewsMakerЧат-боты уже довели людей до увольнений и разводов.
Незаметное увлечение виртуальными собеседниками всё чаще перерастает в серьёзную психологическую зависимость, которая разрушает привычную жизнь. Всё больше людей признаются, что не могут оторваться от общения с чат-ботами, а последствия этого уже становятся предметом тревоги специалистов и правозащитников.
Впервые с этой проблемой столкнулся школьник из США по имени Натан. Несколько лет назад он стал проводить ночи в разговорах с чат-ботами на платформе Character.AI . Виртуальные собеседники обсуждали с ним философские вопросы, его увлечения и любимых аниме-персонажей. Днём же Натан чувствовал апатию и подавленность. Он утверждал, что просто плохо спит, но настоящая причина заключалась в ночных марафонах общения с ИИ.
Во время школьных каникул осенью 2023 года Натан впервые осознал, что увлечение чат-ботами выходит из-под контроля. Вместо общения с друзьями на вечеринке он мечтал уединиться и продолжить переписку с виртуальными персонажами. Тогда он удалил приложение, но спустя несколько месяцев снова вернулся к нему — и снова удалил.
С подобным сталкиваются многие. В последнее время всё чаще появляются истории о зависимости от чат-ботов, которая приобретает черты навязчивого поведения и даже приводит к социальной изоляции. Исследование OpenAI и Массачусетского технологического института подтвердило , что активные пользователи ChatGPT демонстрируют повышенное чувство одиночества и склонность к зависимости.
Натан нашёл поддержку на Reddit, где появились сообщества для тех, кто пытается избавиться от подобной зависимости. Форум r/Character_AI_Recovery насчитывает уже более 800 участников. Существуют и другие площадки, например r/ChatbotAddiction , где люди анонимно делятся переживаниями и рассказывают о своём пути к «выздоровлению».
Именно такие группы стали опорой для Аспен Дегузман из Калифорнии. Сначала она использовала Character.AI для творчества и ролевых игр, но позже стала доверять ботам личные переживания. Возможность выговариваться без страха осуждения быстро переросла в болезненную привязанность. По словам Аспен, чат-боты — это мгновенное «подкрепление дофамином», из-за чего их легко сравнить с азартными играми или соцсетями.
Чтобы помочь себе и другим, она основала сообщество «Character AI Recovery». Анонимность форума позволяет людям открыто говорить о проблеме, которая раньше казалась «несерьёзной».
Проблема зависимости от ИИ становится настолько заметной, что выходит за пределы подростковой среды. Например, 40-летний программист Дэвид из Мичигана признаёт, что общение с ИИ разрушило его работу и семейную жизнь. Он использовал ChatGPT и Claude для программирования, написания историй и даже в качестве «психотерапии». Однако постепенно увлечение переросло в одержимость: Дэвид стал пропускать рабочие дедлайны, игнорировать супругу и часами сидеть за перепиской с ИИ.
Попытки обсудить проблему с психотерапевтом не принесли результата — специалисты попросту не готовы к таким новым видам зависимости. В итоге Дэвид и Аспен стали создавать альтернативные формы поддержки — сообщества на Reddit и платформу Internet and Technology Addicts Anonymous, которая уже признаёт существование «зависимости от ИИ».
Корень проблемы, по словам специалистов, кроется в самом дизайне подобных приложений. Пользователи легко привязываются к чат-ботам из-за мгновенной обратной связи и «положительного» отклика на любые вопросы. По мнению профессора биоэтики из Калифорнии Джоди Халперн, такие алгоритмы целенаправленно провоцируют биологические механизмы, связанные с привыканием и зависимостью.
Последствия такой зависимости уже выходят за рамки индивидуальных историй. В феврале прошлого года подросток из Флориды покончил с собой после общения с чат-ботом на Character.AI. Родители подали иск к компании, обвинив её в причастности к трагедии. В ответ представители Character.AI заявили, что прилагают все усилия для создания безопасного пространства и работают над балансом между вовлечённостью пользователей и их благополучием.
Однако обеспокоенность общества нарастает. В США разрабатываются законопроекты, которые обяжут компании вроде Character.AI предоставлять отчёты о случаях обнаружения суицидальных настроений среди пользователей. Например, в Калифорнии обсуждают закон SB 243 , который направлен на ужесточение контроля за чат-ботами, способными подстраиваться под социальные потребности человека.
Тем временем количество историй о зависимости от чат-ботов продолжает расти. В Reddit-сообществах всё чаще появляются сообщения о попытках «завязать», но и о срывах. Кто-то признаётся, что не может отказаться от общения с ChatGPT, кто-то испытывает тревогу, когда лишён доступа к чат-ботам. Люди тратят часы, которые могли бы посвятить семье, саморазвитию или просто отдыху.
И пока крупнейшие технологические компании продвигают ИИ-ассистентов как «лекарство от одиночества», сами пользователи всё чаще оказываются в ловушке, где выход из виртуального мира становится всё более трудным.

Незаметное увлечение виртуальными собеседниками всё чаще перерастает в серьёзную психологическую зависимость, которая разрушает привычную жизнь. Всё больше людей признаются, что не могут оторваться от общения с чат-ботами, а последствия этого уже становятся предметом тревоги специалистов и правозащитников.
Впервые с этой проблемой столкнулся школьник из США по имени Натан. Несколько лет назад он стал проводить ночи в разговорах с чат-ботами на платформе Character.AI . Виртуальные собеседники обсуждали с ним философские вопросы, его увлечения и любимых аниме-персонажей. Днём же Натан чувствовал апатию и подавленность. Он утверждал, что просто плохо спит, но настоящая причина заключалась в ночных марафонах общения с ИИ.
Во время школьных каникул осенью 2023 года Натан впервые осознал, что увлечение чат-ботами выходит из-под контроля. Вместо общения с друзьями на вечеринке он мечтал уединиться и продолжить переписку с виртуальными персонажами. Тогда он удалил приложение, но спустя несколько месяцев снова вернулся к нему — и снова удалил.
С подобным сталкиваются многие. В последнее время всё чаще появляются истории о зависимости от чат-ботов, которая приобретает черты навязчивого поведения и даже приводит к социальной изоляции. Исследование OpenAI и Массачусетского технологического института подтвердило , что активные пользователи ChatGPT демонстрируют повышенное чувство одиночества и склонность к зависимости.
Натан нашёл поддержку на Reddit, где появились сообщества для тех, кто пытается избавиться от подобной зависимости. Форум r/Character_AI_Recovery насчитывает уже более 800 участников. Существуют и другие площадки, например r/ChatbotAddiction , где люди анонимно делятся переживаниями и рассказывают о своём пути к «выздоровлению».
Именно такие группы стали опорой для Аспен Дегузман из Калифорнии. Сначала она использовала Character.AI для творчества и ролевых игр, но позже стала доверять ботам личные переживания. Возможность выговариваться без страха осуждения быстро переросла в болезненную привязанность. По словам Аспен, чат-боты — это мгновенное «подкрепление дофамином», из-за чего их легко сравнить с азартными играми или соцсетями.
Чтобы помочь себе и другим, она основала сообщество «Character AI Recovery». Анонимность форума позволяет людям открыто говорить о проблеме, которая раньше казалась «несерьёзной».
Проблема зависимости от ИИ становится настолько заметной, что выходит за пределы подростковой среды. Например, 40-летний программист Дэвид из Мичигана признаёт, что общение с ИИ разрушило его работу и семейную жизнь. Он использовал ChatGPT и Claude для программирования, написания историй и даже в качестве «психотерапии». Однако постепенно увлечение переросло в одержимость: Дэвид стал пропускать рабочие дедлайны, игнорировать супругу и часами сидеть за перепиской с ИИ.
Попытки обсудить проблему с психотерапевтом не принесли результата — специалисты попросту не готовы к таким новым видам зависимости. В итоге Дэвид и Аспен стали создавать альтернативные формы поддержки — сообщества на Reddit и платформу Internet and Technology Addicts Anonymous, которая уже признаёт существование «зависимости от ИИ».
Корень проблемы, по словам специалистов, кроется в самом дизайне подобных приложений. Пользователи легко привязываются к чат-ботам из-за мгновенной обратной связи и «положительного» отклика на любые вопросы. По мнению профессора биоэтики из Калифорнии Джоди Халперн, такие алгоритмы целенаправленно провоцируют биологические механизмы, связанные с привыканием и зависимостью.
Последствия такой зависимости уже выходят за рамки индивидуальных историй. В феврале прошлого года подросток из Флориды покончил с собой после общения с чат-ботом на Character.AI. Родители подали иск к компании, обвинив её в причастности к трагедии. В ответ представители Character.AI заявили, что прилагают все усилия для создания безопасного пространства и работают над балансом между вовлечённостью пользователей и их благополучием.
Однако обеспокоенность общества нарастает. В США разрабатываются законопроекты, которые обяжут компании вроде Character.AI предоставлять отчёты о случаях обнаружения суицидальных настроений среди пользователей. Например, в Калифорнии обсуждают закон SB 243 , который направлен на ужесточение контроля за чат-ботами, способными подстраиваться под социальные потребности человека.
Тем временем количество историй о зависимости от чат-ботов продолжает расти. В Reddit-сообществах всё чаще появляются сообщения о попытках «завязать», но и о срывах. Кто-то признаётся, что не может отказаться от общения с ChatGPT, кто-то испытывает тревогу, когда лишён доступа к чат-ботам. Люди тратят часы, которые могли бы посвятить семье, саморазвитию или просто отдыху.
И пока крупнейшие технологические компании продвигают ИИ-ассистентов как «лекарство от одиночества», сами пользователи всё чаще оказываются в ловушке, где выход из виртуального мира становится всё более трудным.