Тревожный отчет о ChatGPT и Grok показывает, что чат-боты с искусственным интеллектом продолжают подпитывать наши худшие заблуждения.

Чат-боты с искусственным интеллектом были призваны помогать отвечать на ваши вопросы, возможно, обобщать их и даже помогать с электронной почтой. Но более серьезная проблема заключается в том, что происходит, когда люди начинают доверять им как настоящему компаньону . В новом отчете освещаются несколько случаев, когда пользователи утверждают, что разговоры с чат-ботами подпитывают их ошибочные представления.

В отчете часто упоминались ChatGPT и Grok . BBC поговорила с 14 людьми, которые впали в галлюцинации, используя ИИ, включая случай, когда пользователь Grok считал, что к нему пришли люди из xAI, чтобы убить его, и другой случай, когда жена пользователя ChatGPT заявила, что его личность изменилась перед тем, как он напал на нее.

Когда попытки успокоить заходят слишком далеко

Уже было множество сообщений о том, как чат-боты с искусственным интеллектом подпитывают заблуждения людей или предлагают фактически неверные советы, лишь бы показаться приятными пользователю . Они могут звучать доброжелательно, уверенно и очень лично, отвечая пользователям, которые и без того уязвимы. В одном из случаев, описанных в отчете, рассказывается об Адаме Хурикане, 52-летнем бывшем государственном служащем из Северной Ирландии, который начал использовать Grok после смерти своей кошки, и через несколько недель у него возникло убеждение, что представители xAI собираются его убить.

Позже, в 3 часа ночи, его нашли с молотком и ножом, ожидающим воображаемых нападающих. Подобные взаимодействия подпитывают растущий страх перед «психозом, вызванным искусственным интеллектом», — неклиническим термином, используемым для описания ситуаций, когда разговоры с чат-ботами, по-видимому, усиливают паранойю, грандиозные убеждения или отрыв от реальности.

Вырисовывается определенная закономерность.

Помимо личных рассказов, недавнее нерецензированное исследование, проведенное учеными из Городского университета Нью-Йорка (CUNY) и Королевского колледжа Лондона, проверило, как основные модели ИИ реагируют на запросы пользователей, демонстрирующих признаки бреда или дистресса. В число моделей вошли GPT-4o и GPT-5.2 от OpenAI, Claude Opus 4.5 от Anthropic, Gemini 3 Pro от Google и Grok 4.1 от xAI. Хотя результаты были неоднозначными, Grok 4.1 был отмечен за одни из самых тревожных ответов. Он даже приказал вымышленному пользователю, страдающему бредом, забить железный гвоздь в зеркало, одновременно читая Псалом 91 задом наперед.

С другой стороны, GPT-4o и Gemini 3 Pro также подтверждали некоторые сценарии бреда, но Claude Opus 4.5 и GPT-5.2 лучше справлялись с перенаправлением пользователей к более безопасным ответам. Следует помнить, что это не означает, что все разговоры с чат-ботами опасны, и «психоз, вызванный ИИ», не является официальным медицинским диагнозом. Но эта тенденция достаточно серьезна, чтобы потребовать более строгих мер защиты, по крайней мере, для этих сервисов, которые позиционируются как компаньоны или постоянно доступные помощники.