Искусственный интеллект Reddit, по-видимому, считает смертельный наркотик полезным для здоровья
Что произошло: Новый чат-бот Reddit с искусственным интеллектом уже сеет хаос. Бот под названием «Ответы» должен помогать пользователям, обобщая информацию из старых сообщений. Согласно отчёту 404media, последний чат-бот Reddit теперь предлагает тяжёлые наркотики для лечения хронической боли.
- Когда кто-то спросил его о борьбе с хронической болью, он указал на комментарий пользователя, в котором говорилось: «По иронии судьбы, в таких случаях героин спас мне жизнь».
- И становится ещё хуже. Кто-то ещё задал вопрос, и мне порекомендовали кратом — растительный экстракт, запрещённый в некоторых местах и связанный с серьёзными проблемами со здоровьем.
- Самое страшное, что Reddit тестирует этого бота прямо в активных обсуждениях, поэтому его ужасные советы видны всем. Модераторы, отвечающие за эти сообщества, заявили, что даже не могут отключить эту функцию.
Почему это важно: Это прекрасный, хотя и пугающий, пример одной из самых больших проблем с ИИ на сегодняшний день.
- Бот на самом деле ничего не понимает. Он просто отлично находит и повторяет то, что люди написали в интернете, и не может отличить полезный совет от саркастической шутки или действительно опасного предложения.
- Настоящая опасность заключается в том, что эта информация вклинивается прямо в разговоры, где реальные, уязвимые люди ищут помощи, и преподносится как факт.
Почему меня это должно волновать: Почему это важно для вас? Потому что это показывает, насколько опасными могут быть эти инструменты искусственного интеллекта , если их пускать на самотёк, особенно когда речь идёт о чём-то столь серьёзном, как ваше здоровье. Даже если вы никогда не обратитесь к чат-боту за медицинской консультацией, его неверные рекомендации могут начать загрязнять онлайн-сообщества, затрудняя понимание того, кому или чему можно доверять.
Что дальше: После того, как пользователи (и вполне обоснованно) встревожились, Reddit подтвердил, что удаляет бота из любых обсуждений, связанных со здоровьем. Однако они пока не уточнили, устанавливают ли они какие-либо реальные фильтры безопасности для самого бота. Так что на данный момент проблема исправлена, но не обязательно решена.