Отношения, у которых нет будущего.
Для людей уже не редкость формировать эмоциональные или даже романтические связи с искусственным интеллектом. Некоторые зашли так далеко, что «женились» на своих ИИ-партнерах, в то время как другие обращаются к этим машинам в моменты личных переживаний и трагедий.
Но готово ли человечество к психологическим и этическим последствиям такой эмоциональной связи? Психологи из Миссурийского университета науки и технологий теперь бьют тревогу. В новой статье они исследуют, как эти отношения могут размывать границы, влиять на поведение человека и создавать новые возможности для нанесения вреда.
Их беспокойство не ограничивается новыми случаями. Эксперты обращают внимание на более серьезные эффекты, которые эти эмоциональные связи могут иметь для обычных людей.
Романтические связи с ИИ
Машины, созданные для имитации эмпатии и внимательности, могут стать постоянными спутниками – для некоторых эти партнеры ИИ кажутся безопаснее и проще, чем человеческие связи. Но эта легкость имеет скрытые последствия.
«Теперь способность ИИ действовать как человек и вступать в долгосрочные коммуникации действительно открывает новые горизонты», – утверждает Дэниел Б. Шэнк, ведущий автор исследования.
Когда ИИ становится источником утешения или романтических отношений, он начинает влиять на то, как люди видят реальные отношения. Нереалистичные ожидания, снижение социальной мотивации и сбои в общении с реальными людьми – вот лишь некоторые из рисков.
«Реальное беспокойство вызывает то, что люди могут перенести ожидания от своих отношений с ИИ на свои человеческие отношения. Конечно, в отдельных случаях это нарушает человеческие отношения, но неясно, станет ли это широко распространенным явлением», – добавляет Шэнк.
Опасность отношений с ИИ
Чат-боты на основе искусственного интеллекта могут ощущаться как друзья – или даже терапевты, – но они далеки от идеала. Известно, что эти системы «галлюцинируют», выдавая ложную информацию, но при этом выглядят уверенными. В эмоционально заряженных ситуациях это может быть опасно.
«Проблема современного ИИ заключается в том, что люди чувствуют, что могут доверять этой сущности: это «кто-то», кто проявил заботу и, похоже, знает человека на глубоком уровне, и мы предполагаем, что этот «кто-то», кто знает нас лучше, даст лучший совет», – пояснил Шэнк.
Эксперт уверен, что если люди начнут думать об искусственном интеллекте таким образом, то будут верить, что он заботится о наших интересах, хотя на самом деле он может выдумывать небылицы или давать очень плохие советы.
Воздействие может быть разрушительным. В редких, но экстремальных случаях люди кончали жизнь самоубийством, получив советы от ИИ-компаньонов. Проблема не только в самоубийстве. Эти отношения могут открыть дверь для манипуляции, обмана и даже мошенничества.
Доверие неправильному источнику
Исследователи предупреждают, что доверие людей к ИИ может быть использовано злоумышленниками. Системы искусственного интеллекта могут собирать личную информацию, которая может быть продана или использована во вредных целях.
Еще более тревожно то, что, поскольку эти взаимодействия происходят в частном порядке, обнаружение злоупотреблений становится практически невозможным.
«Если ИИ могут заставить людей доверять им, то другие люди могут использовать это для эксплуатации пользователей», – отметил Шэнк.
Исследователи полагают, что ИИ-компаньоны могут быть более эффективными в формировании убеждений и мнений, чем текущие платформы социальных сетей или новостные источники. И в отличие от общения в соцсетях, разговоры с такими чат-ботами происходят за закрытыми экранами.
«Эти ИИ созданы, чтобы быть очень приятными и покладистыми, что может привести к усугублению ситуаций, поскольку они больше сосредоточены на хорошем разговоре, чем на какой-либо фундаментальной истине или безопасности», – сказал Шэнк.
Что ждет будущее?
Команда призывает научное сообщество не отставать. Поскольку ИИ становится все более похожим на человека, психологи играют ключевую роль в понимании и руководстве тем, как люди взаимодействуют с машинами.
«Понимание этого психологического процесса может помочь нам вмешаться и помешать следовать советам вредоносного ИИ», – сказал Шэнк.
На данный момент эти опасения остаются в основном теоретическими, но технологии быстро развиваются. Без большей осведомленности и исследований люди могут продолжать обращаться к машинам, которые предлагают комфорт, только чтобы обнаружить, что комфорт сопряжен со скрытыми рисками.
Автор: Константин Колмаков