Видеоролики OpenAI Sora 2 вызывают тревожную тенденцию к созданию контента, осуждающего лишний вес, с помощью искусственного интеллекта

Что произошло: Итак, генеральный директор Netflix Тед Сарандос рассказывает о том, что ИИ — это потрясающий новый инструмент, который поможет людям «рассказывать истории лучше, быстрее и по-новому». Звучит здорово, не правда ли?

  • Но вот в чем реальность: пока он это говорит, новый инструмент для создания видео от OpenAI , Sora 2, используется для наводнения Интернета самым отвратительным контентом, какой только можно себе представить .
  • Речь идёт о волне откровенно фэтфобных и расистских «комедийных» роликов в Instagram, YouTube и TikTok. Люди используют Sora 2 , способную создавать невероятно реалистичные клипы, чтобы создавать и делиться видео просто из жестокости.
  • Примеры просто ужасны. Вот вирусный ролик, просмотренный почти миллион раз, где толстая женщина прыгает с тарзанки, а мост под ней «обрушивается». В другом ролике чернокожая женщина «проваливается сквозь пол KFC» — просто отвратительная смесь расизма и бодишейминга. Есть и другие, где водители доставки проваливаются сквозь крыльцо или «опухают» после еды.
  • И самое страшное? Многие, кто смотрит эти видео, думают, что они настоящие.

Почему это важно: Это большая проблема искусственного интеллекта, о которой никто не хочет говорить. Он вывел создание контента, разжигающего ненависть, на новый уровень.

  • То, на создание чего раньше требовалось уйма времени человеку с реальными навыками производства, теперь может создать любой злобный человек за считанные секунды.
  • Это не просто «безвкусица» — это настоящий этический кризис. Это способ массово плодить и усиливать самые вредные стереотипы о людях — и всё это ради дешёвого смеха.
  • Это также доказывает, что «заградительные барьеры», которые, по заявлениям компаний, занимающихся разработкой искусственного интеллекта, таких как OpenAI, устанавливают в своих инструментах, не работают. К сожалению. Они должны блокировать именно этот тип оскорбительного и жестокого контента, но это явно не так.

Почему меня это должно волновать: Если вы пользуетесь социальными сетями, вы уже это видите. Это не просто безобидный онлайн-троллинг.

  • Этот хлам формирует то, как люди видят мир, особенно дети.
  • А поскольку многие люди не видят разницы между тем, что создано искусственным интеллектом, и тем, что реально, грань между реальностью, черным юмором и чистой, неприкрытой ненавистью полностью стирается.
  • И, конечно же, когда одно из таких видео становится вирусным, это просто побуждает еще десяток людей сделать свои собственные версии для кликов и «лайков».

Что дальше: До сих пор OpenAI хранила полное молчание относительно этой новой волны фэтфобного контента.

  • Но это подводит нас к столь необходимому и неприятному разговору о том, кто несет ответственность, когда эти мощные инструменты используются для причинения вреда и преследования людей.
  • Регуляторы определённо начинают обращать на это внимание. Поскольку эти инструменты ИИ становятся такими же простыми в использовании, как фильтры, настоящей проблемой станет понимание того, как не допустить, чтобы вся эта «креативность» шла в ущерб нашей человечности.