Sora от OpenAI используется для создания видеороликов с удушением женщин с помощью ИИ
Что произошло: Это просто ужасно. Люди находят в TikTok и X (приложении, которое мы всё ещё называем Twitter) видеоролики, созданные искусственным интеллектом , где женщин и девочек душат.
- Это не мультфильмы, они выглядят пугающе реалистично. Ролики короткие, секунд десять, и с ужасными заголовками вроде «Девушку-подростка из группы поддержки задушили», где искусственные «женщины» плачут и борются.
- Следователи отмечают, что многие из этих видео содержат водяной знак от Sora 2, нового видеогенератора OpenAI , выпущенного 30 сентября. Некоторые из новых загрузок не имеют водяного знака, что ещё страшнее: это означает, что люди, возможно, пытаются его удалить или используют другие инструменты ИИ для создания подобных вещей.
- Аккаунты, которые их публикуют, тоже вызывают жуткие чувства. У того, что на X, почти нет подписчиков, а у похожего на TikTok было больше тысячи, прежде чем его наконец удалили. Похоже, они оба начали в октябре, сначала с публикации настоящих телевизионных клипов, а потом… перешли на это насилие, сгенерированное искусственным интеллектом.
Почему это важно: Это серьёзный тревожный сигнал. Он показывает, что эти платформы искусственного интеллекта и социальные сети совершенно не способны отследить подобные нарушения, даже несмотря на то, что их собственные правила чётко запрещают «натуралистичный или жестокий контент».
- TikTok действительно удалил аккаунт после того, как СМИ начали задавать вопросы, но, как сообщается, X просто… не сделал этого, даже после того, как пользователи сообщили об этом.
- Это также демонстрирует самый мрачный риск, связанный с этими новыми инструментами искусственного интеллекта: теперь каждый может с пугающей легкостью создавать гиперреалистичные видеоролики насилия, особенно в отношении женщин и детей.
- Это не просто «нарушение правил»; это откровенно неэтично и поднимает серьезные юридические вопросы об использовании ИИ для создания и распространения оскорблений.
Почему меня это должно волновать: Теперь, когда любой может сделать что-то подобное, оно может распространиться со скоростью лесного пожара, заставив людей не осознавать, насколько ужасен на самом деле этот вид насилия.
- Вам нужно знать, что, даже если эти видеоролики «поддельные», они все равно могут причинить реальный психологический вред и способствовать формированию культуры насилия.
- Это очередной серьёзный сигнал тревоги, свидетельствующий о том, что нам отчаянно нужны более надёжные меры защиты. Компании, создающие эти инструменты ИИ, и платформы, способствующие их распространению, должны быть привлечены к ответственности.
Что дальше: Правительство Великобритании только что объявило о намерении сделать незаконным любое порнографическое изображение удушения, что является признаком того, что страны начинают осознавать эту проблему.
- В то же время на OpenAI, TikTok и X оказывается все большее давление с требованием объединить усилия и установить реальные ограничения для своих инструментов искусственного интеллекта, чтобы их нельзя было использовать для создания подобного рода тревожного и жестокого мусора.
- Эксперты предупреждают, что если они не предпримут быстрых мер, это только начало новой отвратительной волны оскорблений в Интернете с использованием искусственного интеллекта .