ChatGPT хочет поиграть в доктора со специальным режимом, но я пропущу
Несколько недель назад один медицинский исследователь сообщил о довольно любопытном случае медицинской ошибки, вызванной искусственным интеллектом, подробно описав случай человека, обратившегося к ChatGPT и впавшего в психотическое состояние из -за отравления бромидом. Эксперты уже давно высказывают подобные опасения, и, похоже, OpenAI намерена противостоять им, создав специальный режим ChatGPT для медицинских консультаций.
Высокая надежда
Тибор Блахо, инженер компании AIPRM, специализирующейся на искусственном интеллекте, поделился интересным фрагментом кода веб-приложения ChatGPT. В строках упоминается новая функция под названием «Режим врача». В коде не раскрывается подробностей её работы, но, похоже, это специальный режим для поиска медицинских консультаций — точно так же, как реализованы меры безопасности для учётных записей подростков.
Примечательно, что OpenAI пока не делала официальных заявлений о подобной функции, поэтому воспринимайте эту новость с долей скепсиса. Однако существует несколько теорий о том, как это может работать. Джастин Энджел, разработчик, известный в сообществах Apple и Windows, поделился в X тем, что это может быть защищённый режим, ограничивающий источник информации медицинскими исследовательскими работами.
Например, если вы обратитесь за медицинской консультацией по поводу проблем со здоровьем или симптомов, ChatGPT предоставит ответ, основанный исключительно на информации, полученной из достоверных медицинских источников. Таким образом, снижается вероятность того, что ChatGPT будет давать вам вводящие в заблуждение советы по вопросам здоровья .
Суровая реальность
Идея, лежащая в основе чего-то вроде «Режима врача», не так уж и абсурдна. Всего день назад Consensus запустил функцию под названием «Медицинский режим». При запросе, связанном со здоровьем, разговорный ИИ ищет ответы «исключительно на основе медицинских доказательств высочайшего качества» — корпуса, включающего более восьми миллионов статей и тысячи проверенных клинических рекомендаций. На первый взгляд, этот подход кажется безопасным, но риски сохраняются.
В статье, опубликованной в журнале Scientific Reports в прошлом месяце, были отмечены подводные камни применения ChatGPT в медицинском контексте. «Следует проявлять осторожность и информировать коллег и пациентов о риске галлюцинаций и использования технического жаргона, который может затруднить интерпретацию результатов», — предупреждается в статье. Однако, похоже, отрасль уверенно движется в сторону ИИ.
Медицинская школа Стэнфордского университета тестирует программное обеспечение на базе искусственного интеллекта ChatEHR, которое позволяет врачам взаимодействовать с медицинскими картами в более интерактивной манере. Несколько месяцев назад OpenAI совместно с Penda Health также протестировала «медицинского ИИ-помощника» и объявила, что этот инструмент снизил вероятность диагностических ошибок на 16%.