Не стоит доверять новому искусственному интеллекту Muse Spark от Meta советы по вопросам здоровья.
Новая модель Muse Spark от Meta позиционируется как более интеллектуальная модель ИИ, но, судя по предварительным тестам, это, скорее всего, тот тип ИИ, который вам точно не захочется использовать при принятии серьезных медицинских решений.
В недавнем отчете WIRED рассказывалось об опыте использования Muse Spark. Ориентированная на здоровье модель искусственного интеллекта Meta, встроенная в приложение Meta AI, не показала многообещающих результатов. Сообщается, что чат-бот предлагал пользователям загружать необработанную медицинскую информацию, такую как результаты анализов, показания глюкометра и журналы измерения артериального давления, а затем предлагал помощь в анализе закономерностей и тенденций.
Всё это звучит довольно полезно, пока вы не поймёте две насущные проблемы. Вы передаёте очень конфиденциальные данные, и возникает вопрос, достаточно ли надёжен ИИ, чтобы их интерпретировать.
Что пошло не так на начальных этапах тестирования?
Первую проблему довольно сложно игнорировать. В наше время, когда жизнь и так кажется слишком прозрачной, Muse Spark вмешивается в чужие дела ещё глубже. Предоставление необходимой информации для точной диагностики не является чем-то неожиданным, но передача личных медицинских данных чат-боту для получения консультации не кажется угрозой конфиденциальности.
В отличие от данных, передаваемых врачу или больнице, информация, вводимая в чат-бот, не подразумевает автоматически тех же ожиданий или защиты, которые, как может показаться, существуют у пользователей. Это не профессионально проверенное мнение, и именно это делает идею сомнительной. Искусственный интеллект представляется как полезный инструмент, но окружающая его среда по-прежнему больше похожа на потребительский продукт, чем на полноценную медицинскую среду.
Это ещё не самое худшее.
Помимо типичных рисков для конфиденциальности, связанных с передачей личных данных любому технологическому гиганту, можно было бы ожидать хотя бы приемлемого ответа. Но более серьезная проблема, по-видимому, заключалась в качестве предоставляемых рекомендаций. В ходе тестирования WIRED чат-бот, как сообщается, сгенерировал план питания с крайне низким содержанием калорий после того, как его спросили о похудении и агрессивном интервальном голодании.
Хотя бот и указал на некоторые риски на этом пути, предупреждение мало что значит, если модель всё равно помогает пользователю совершить опасный поступок. Именно здесь кроется настоящая проблема многих современных инструментов искусственного интеллекта для здравоохранения. Они могут звучать осторожно, компетентно и казаться сбалансированными до того момента, пока не начинают подкреплять ошибочные предположения. Этот отполированный тон может с уверенностью давать неверные советы, что делает неудачу ещё более опасной.