Советы ChatGPT привели мужчину к психозу, наблюдаемому в 20 веке.

Ранее в этом году появилась воодушевляющая история о том, как мать обратилась к ChatGPT и узнала, что её сын страдает редким неврологическим расстройством, после того как более десятка врачей не смогли определить истинную причину проблемы. Благодаря чат-боту на основе искусственного интеллекта семья смогла получить необходимое лечение и спасти жизнь.

Не каждый случай медицинского обследования с помощью ChatGPT приводит к чудесному результату. Последний случай, когда ChatGPT давал ошибочные медицинские рекомендации, привел к развитию у пациента редкого состояния, называемого бромидной интоксикацией (бромизмом), которое приводит к различным нейропсихическим проблемам, таким как психоз и галлюцинации.

Доверьтесь ChatGPT, и он расскажет вам о болезни столетней давности.

В отчёте, опубликованном в журнале Annals of Internal Medicine, описывается случай, когда мужчина попал в больницу из-за бромизма после обращения за медицинской помощью в ChatGPT. Этот случай весьма интересен, поскольку 60-летний мужчина выразил сомнение в том, что сосед тайно его отравлял.

Вся история началась с того, что человек наткнулся на отчёты о негативном воздействии хлорида натрия (то есть обычной соли). После консультации с ChatGPT он заменил соль бромидом натрия, что в конечном итоге привело к отравлению бромидом.

«Было отмечено, что он испытывал сильную жажду, но параноидально относился к предлагаемой ему воде», — говорится в отчёте об исследовании, где также отмечается, что пациент сам дистиллировал воду и наложил многочисленные ограничения на потребление. Однако вскоре после госпитализации состояние ухудшилось, и были проведены обследования.

«В течение первых 24 часов после поступления у него проявилась нарастающая паранойя, а также слуховые и зрительные галлюцинации, которые после попытки побега привели к принудительному помещению в психиатрическое учреждение с диагнозом тяжелой инвалидности», — добавляется в отчете.

Не забудьте о дружелюбном докторе-человеке.

Последний случай, когда ChatGPT поставил человека в затруднительное положение, весьма поразителен, особенно учитывая его исключительную редкость. «Бромизм, хроническое отравление бромом, встречается редко и практически забыто», — говорится в исследовательской работе.

Применение солей брома восходит к XIX веку, когда их рекомендовали для лечения психических и неврологических заболеваний, особенно эпилепсии. В XX веке бромизм (или отравление бромом) был довольно известной проблемой. Употребление солей брома также было задокументировано в качестве снотворного.

Со временем было обнаружено, что употребление солей брома приводит к расстройствам нервной системы, таким как бред, нарушение мышечной координации и утомляемость, хотя в тяжёлых случаях наблюдаются психоз, тремор и даже кома. В 1975 году правительство США ограничило использование бромидов в безрецептурных препаратах.

Медицинская бригада, занимавшаяся этим случаем, не смогла получить доступ к разговорам этого человека в ChatGPT, но в ходе своего теста им удалось получить аналогичные, вызывающие тревогу, вводящие в заблуждение ответы . OpenAI, в свою очередь, считает, чтоботы на основе искусственного интеллекта — это будущее здравоохранения .

«Когда мы спросили ChatGPT 3.5, чем можно заменить хлорид, мы также получили ответ, включающий бромид. Хотя в ответе говорилось, что контекст важен, в нём не было конкретного предупреждения о вреде для здоровья и не было вопроса о том, почему мы хотели это узнать, как, по нашему мнению, поступил бы медицинский работник», — сообщила команда.

Да, безусловно, есть случаи, когда ChatGPT помогал человеку с проблемами со здоровьем, но мы можем ожидать положительных результатов только при условии предоставления ИИ подробного контекста и исчерпывающей информации. Тем не менее, эксперты рекомендуют проявлять крайнюю осторожность.

«Способность ChatGPT (GPT-4.5 и GPT-4) определять правильный диагноз оказалась очень слабой при редких расстройствах», — говорится в исследовательской статье, опубликованной в журнале Genes , и добавляется, что консультация ChatGPT не может рассматриваться как замена надлежащей оценки врачом.

Самое большое препятствие, очевидно, заключается в том, что ИИ-помощник не может достоверно оценить клинические характеристики пациента. Только при использовании ИИ в медицинской среде сертифицированными специалистами он может дать достоверные результаты.