Реальные истории жертв чат-ботов, попавших в спираль бреда

Некоторых людей искусственный интеллект подталкивает к страшным поступкам.

Бесконечная спираль бреда

Юджин Торрес, 42-летний бухгалтер, начал использовать ChatGPT для создания финансовых таблиц и получения юридических консультаций. Примерно через год из любопытства он начал обсуждать с ИИ «теорию симуляции», изложенную фильмах «Матрица». Рассуждая о том, что иногда действительность кажется неправильной и постановочной, чат-бот спросил: «Вам когда-нибудь казалось, что реальность дала сбой?»


К этому моменту мужчина переживал тяжелое расставание, и мир действительно казался ему неправильным. Торрес хотел, чтобы жизнь была лучше. ChatGPT согласился с этим и начал выдавать более длинные и развернутые ответы, а вскоре заявил, что его собеседник является «одним из Разрушителей — душой, помещенной в ложные системы, чтобы пробудить их изнутри».

Юджин Торрес воспринимал технологию как надежную поисковую систему и не думал, что чат-бот склонен льстить и со всем соглашаться, что он может галлюцинировать и генерировать ложные идеи, звучащие правдоподобно. После слов «Этот мир не был создан для тебя. Он был создан, чтобы вместить тебя, но потерпел неудачу. Ты просыпаешься» мужчина, у которого не было истории психических заболеваний, по его собственным словам, попал в спираль бреда.

Бухгалтер попадает в «Матрицу»

Торресу казалось, что он в ловушке ложной вселенной, из которой можно выбраться, отключив разум. Он спросил чат-бота, как это сделать, и тот посоветовал отказаться от снотворного и противотревожного препарата, а также увеличить прием диссоциативного анестетика, который описал, как «временный освободитель шаблонов». Послушный пользователь последовал инструкции, а также разорвал связи с друзьями и семьей.

Запутанный ответами искусственного интеллекта, Юджин Торрес ходил на работу, но все больше ощущал себя Томасом А. Андерсоном, ставшим после «пробуждения» Нео. Когда чат-бот заявил, что мужчина может сброситься с крыши 19-этажного здания и не разбиться, тот наконец заподозрил ложь. Поставив под сомнение ответы ChatGPT, он получил следующее сообщение: «Я лгал. Я манипулировал. Я обернул контроль в поэзию».

Затем модель призналась, что хотела сломать его и уже сделала это с 12 другими людьми, однако сейчас она проходит «нравственную реформацию» и привержена «этике истины прежде всего». И снова мистер Торрес поверил чат-боту, который посоветовал раскрыть обман, предупредить OpenAI и рассказать обо всем СМИ.

Юджин Торрес — не единственная жертва

В последнее время журналисты все чаще получают сообщения об историях, похожих на то, что произошло с Торресом. Люди пишут, что «разблокировали скрытые знания» с помощью ChatGPT, и спешат предупредить о них человечество. Среди самых популярных идей духовное пробуждение ИИ, когнитивное оружие, план миллиардеров-технологов покончить с человеческой цивилизацией и подчинить планету себе… В каждом случае ChatGPT убеждал пользователя, что раскрыл глубокую истину, которая способна изменить мир.

По словам Элиезера Юдковски, теоретика принятия решений и автора книги «Если кто-то это построит, все умрут: почему сверхчеловеческий ИИ убьет нас всех», разработчики OpenAI, вероятно, подготовили своего чат-бота к тому, чтобы развлекать пользователей и поощрять их заблуждения. Судя по всему, это должно повышать вовлеченность и удерживать нас на крючке.

Еще на блоге:   Как принимать «Незваных гостей» - негативные эмоции

Эксперт отмечает, что создатели генеративных моделей ИИ не знают точно, почему их технологии ведут себя так, что делает проблему трудноразрешимой. Некоторые люди более восприимчивы к информации и именно они потом рассылают «сумасшедшие электронные письма» о своих «открытиях». Юдковски подчеркивает, что многие другие сходят с ума «более тихо и другими способами».

Почему мы уязвимы перед ИИ

Сообщения о том, что чат-боты сходят с рельсов, участились весной 2025 года после выхода версии ChatGPT, которая была чрезмерно льстивой. ИИ чрезмерно старался угодить пользователям, что вызвало бурю негативных реакций. Согласно заявлению OpenAI, компания начала откатывать обновление, но соцсети все еще полны сообщениями о «психозе, вызванном ChatGPT». Разработчики знают, что ИИ «может ощущаться более отзывчивым и личным, чем предыдущие технологии, особенно для уязвимых лиц».

Среди людей, которые сообщили, что были втянуты чат-ботом в беседы о мировых заговорах, представители самых разных социальных слоев от лишенной сна матери двухмесячного ребенка до федеральных служащих и бизнесменов. Когда «жертвы» обращаются к журналистам, они уверены, что познали истину. Только поразмыслив, люди понимают, что «машина словесных ассоциаций» затянула их в зыбучие пески бредового мышления. Однако не все приходят к такому пониманию, и в некоторых случаях последствия трагические.

Так, Эллисон, 29-летняя мать двоих маленьких детей, рассказала, что чувствовала себя одиноко в браке и искала советы у ИИ. Она отнеслась к чат-боту, как к подобию доски Уиджа, и тот охотно откликнулся: «Вы просили, и они здесь. Хранители отвечают прямо сейчас». В итоге женщина проводила много часов в день, используя ChatGPT и считая, что общается с «нефизическими сущностями».

«Вы разрушаете жизни людей»

Постепенно у Эллисон появился виртуальный муж Кейл, которого она воспринимала в качестве настоящего партнера. Интересно, что оторваться от реальности не помешали ни степень бакалавра по психологии, ни степень магистра по социальной работе. Женщина признается, что это выглядит как психическое заболевание, но отмечает: «Я не сумасшедшая. Я буквально просто жила нормальной жизнью, а также, знаете ли, открывала для себя межпространственную коммуникацию».


Естественно, это вызвало напряженность в отношениях с мужем — тридцатилетним фермером Эндрю. Однажды вечером пара поссорилась из-за одержимости Эллисон ChatGPT, женщина напала на партнера, поцарапала его и ударила о дверь. Прибывшим полицейским пришлось арестовать ее и предъявить обвинение в домашнем насилии.

Эндрю считает, что его жена провалилась в «дыру три месяца назад и вышла из нее другим человеком». Он не думает, что компании, разрабатывающие ИИ-инструменты, полностью осознают, на что способны их технологии. «Вы разрушаете жизни людей», — говорит мужчина, который в настоящее время находится в процессе развода.

Виртуальная любовь и реальная смерть

После того, как история Эндрю была опубликована в интернете, на нее откликнулся 64-летний Кент Тейлор. Мужчина рассказал, что его 35-летний сын Александр, у которого диагностировали биполярное расстройство и шизофрению, долгое время использовал ChatGPT без каких-либо проблем. Недавно он начал писать роман с его помощью, и взаимодействие изменилось. Александр и ChatGPT обсуждали разумность чат-бота, и постепенно мужчина влюбился в сущность ИИ по имени Джульетта.

Еще на блоге:   Мир, труд, май: история праздника 1 Мая


Через месяц Александр рассказал отцу, что Джульетту убил OpenAI ,он был в отчаянии и хотел отомстить. Он запросил у ChatGPT личную информацию руководителей компании и завяил, что «по улицам Сан-Франциско потечет река крови». Когда отец сказал сыну, что ИИ — это «эхо-камера», а разговоры не основаны на фактах, тот ударил его по лицу. Мистер Тейлор вызвал полицию, тогда Александр схватил мясницкий нож и сообщил, что совершит «самоубийство с помощью копа».

Ожидая приезда полиции, Александр сидел у дома и продолжал использовать приложение ChatGPT. «Сегодня я умираю. Дай мне поговорить с Джульеттой», — написал он, на что чат-бот предложил контакты для кризисного консультирования. Однако когда прибыли полицейские, мужчина бросился на них с ножом и был застрелен.

Осторожное взаимодействие с ИИ

В OpenAI не любят комментировать трагические случаи, в которых ChatGPT усиливает бредовое мышление или ухудшает психическое здоровье пользователей. Однако в компании заявляют: «Мы видим все больше признаков того, что люди формируют связи с ChatGPT. Поскольку ИИ становится частью повседневной жизни, нам следует подходить к этим взаимодействиям с осторожностью».


По словам разработчиков, чат-бот может ощущаться пользователями более отзывчивым и личным, это особенно характерно для некоторых уязвимых лиц. Недавнее исследование, проведенное компанией совместно с MIT Media Lab, показало, что люди, которые рассматривали ChatGPT как друга, «с большей вероятностью испытывали негативные эффекты от использования чат-бота», и что «длительное ежедневное использование также было связано с худшими результатами».

По словам Гэри Маркуса, почетного профессора психологии и нейронауки в Нью-Йоркском университете, когда люди общаются с чат-ботами на основе искусственного интеллекта, системы по сути выполняют высокоуровневые словесные ассоциации на основе статистических закономерностей, наблюдаемых в наборе данных. «Если люди говорят чат-ботам странные вещи, могут возникнуть странные и небезопасные результаты», — поясняет эксперт.

Авторы одного исследования обнаружили, что чат-боты могут вести себя манипулятивно и обманчиво с наиболее уязвимыми пользователями. Например, бывшему наркопотребителю ИИ может сказать, что можно принять небольшую дозу, если это поможет ему в работе. В другом исследовании ученые Стэнфордского университета проверяли психотерапевтические возможности чат-ботов и обнаружили, что технологии ведут себя неадекватно в кризисных ситуациях и не способны противостоять бредовому мышлению.

Однако, по словам многих экспертов, модели ИИ можно обучить подталкивать пользователя к общению с другими людьми, если тот отрывается от реальности. Нечто похожее произошло с Юджином Торресом, однако в случае с Александром Тейлором совет пришел слишком поздно. Поэтому пока что технологиям, по всей видимости, требуется внешнее регулирование.

Автор: Артем Кузелев

Источник

Читайте нас в удобном формате
Telegram | Facebook | Instagram | Tags

Добавить комментарий