Sora от OpenAI используется для создания видеороликов с удушением женщин с помощью ИИ

Что произошло: Это просто ужасно. Люди находят в TikTok и X (приложении, которое мы всё ещё называем Twitter) видеоролики, созданные искусственным интеллектом , где женщин и девочек душат.

  • Это не мультфильмы, они выглядят пугающе реалистично. Ролики короткие, секунд десять, и с ужасными заголовками вроде «Девушку-подростка из группы поддержки задушили», где искусственные «женщины» плачут и борются.
  • Следователи отмечают, что многие из этих видео содержат водяной знак от Sora 2, нового видеогенератора OpenAI , выпущенного 30 сентября. Некоторые из новых загрузок не имеют водяного знака, что ещё страшнее: это означает, что люди, возможно, пытаются его удалить или используют другие инструменты ИИ для создания подобных вещей.
  • Аккаунты, которые их публикуют, тоже вызывают жуткие чувства. У того, что на X, почти нет подписчиков, а у похожего на TikTok было больше тысячи, прежде чем его наконец удалили. Похоже, они оба начали в октябре, сначала с публикации настоящих телевизионных клипов, а потом… перешли на это насилие, сгенерированное искусственным интеллектом.

Почему это важно: Это серьёзный тревожный сигнал. Он показывает, что эти платформы искусственного интеллекта и социальные сети совершенно не способны отследить подобные нарушения, даже несмотря на то, что их собственные правила чётко запрещают «натуралистичный или жестокий контент».

  • TikTok действительно удалил аккаунт после того, как СМИ начали задавать вопросы, но, как сообщается, X просто… не сделал этого, даже после того, как пользователи сообщили об этом.
  • Это также демонстрирует самый мрачный риск, связанный с этими новыми инструментами искусственного интеллекта: теперь каждый может с пугающей легкостью создавать гиперреалистичные видеоролики насилия, особенно в отношении женщин и детей.
  • Это не просто «нарушение правил»; это откровенно неэтично и поднимает серьезные юридические вопросы об использовании ИИ для создания и распространения оскорблений.

Почему меня это должно волновать: Теперь, когда любой может сделать что-то подобное, оно может распространиться со скоростью лесного пожара, заставив людей не осознавать, насколько ужасен на самом деле этот вид насилия.

  • Вам нужно знать, что, даже если эти видеоролики «поддельные», они все равно могут причинить реальный психологический вред и способствовать формированию культуры насилия.
  • Это очередной серьёзный сигнал тревоги, свидетельствующий о том, что нам отчаянно нужны более надёжные меры защиты. Компании, создающие эти инструменты ИИ, и платформы, способствующие их распространению, должны быть привлечены к ответственности.

Что дальше: Правительство Великобритании только что объявило о намерении сделать незаконным любое порнографическое изображение удушения, что является признаком того, что страны начинают осознавать эту проблему.

  • В то же время на OpenAI, TikTok и X оказывается все большее давление с требованием объединить усилия и установить реальные ограничения для своих инструментов искусственного интеллекта, чтобы их нельзя было использовать для создания подобного рода тревожного и жестокого мусора.
  • Эксперты предупреждают, что если они не предпримут быстрых мер, это только начало новой отвратительной волны оскорблений в Интернете с использованием искусственного интеллекта .