YouTube перекладывает на вас проблему с некачественным ИИ, и это ужасная идея.
У YouTube появился новый план по борьбе с волной контента, созданного с помощью ИИ , и он касается вас. Теперь компания просит зрителей оценить, насколько видео похоже на «халтуру от ИИ» . На первый взгляд, это кажется разумным способом борьбы с низкокачественным контентом, созданным ИИ, в вашей ленте. На практике же это может создать больше проблем, чем решить.
Люди плохо умеют распознавать контент, созданный искусственным интеллектом, и их способность к этому только ухудшается.
Основная проблема такого подхода заключается в том, что люди плохо распознают контент, созданный ИИ, и разрыв между способностью человека распознавать подделки и возможностями ИИ быстро увеличивается. Ранние версии контента, созданного ИИ, имели очевидные признаки, такие как роботизированные голоса, искаженные руки или неестественно выглядящие лица. Более новые модели в значительной степени исправили эти проблемы.
Теперь голоса звучат естественно, лица убедительны, а очевидные признаки выдачи исчезают. Инструменты явно продвинулись, но обычные зрители не успевают за прогрессом. И это подтверждают исследования.
Недавнее исследование распознавания лиц с помощью ИИ показало, что люди лишь немного превосходили случайный уровень точности при попытке идентифицировать лица, созданные ИИ. Ещё более тревожным является тот факт, что их уверенность в способности распознать лица, созданные ИИ, была неизменно выше, чем их реальная точность. Аналогичные закономерности наблюдаются и в других исследованиях.
Исследование по обнаружению дипфейков показало, что люди испытывают трудности с их обнаружением, но всё же считают, что могут это сделать, а исследование по распознаванию голоса, сгенерированного ИИ, предполагает, что голоса, созданные ИИ, теперь практически неотличимы от реальных для среднестатистического слушателя.
Собственная репутация YouTube не улучшает его положение. Исследование Kapwing показало, что около 21% из первых 500 видеороликов, рекомендованных новому аккаунту, были классифицированы как низкокачественный контент, созданный с помощью ИИ, а расследование The New York Times выявило, что более 40% рекомендованных коротких видеороликов для детей, которые можно посмотреть за 15 минут, содержали низкокачественный контент, созданный с помощью ИИ.
Это контент, который уже прошёл автоматическую и ручную проверку YouTube. Если эти системы пропускают столько некачественного контента, созданного с помощью ИИ, то ожидать от зрителей лучших результатов кажется нереалистичным.
Система рейтингов также открывает возможности для злоупотреблений.
Даже если зрители являются надежными детекторами ИИ, новая система рейтингов подвержена злоупотреблениям. Скоординированные кампании против создателей контента — хорошо задокументированная проблема на YouTube, когда злоумышленники атакуют каналы массовыми жалобами и «бомбардировкой дизлайками». Функция, позволяющая пользователям помечать контент как «некачественный контент, созданный ИИ», дает им новый инструмент для злоупотреблений. Конкурирующие каналы, разгневанные сообщества или организованные группы могут злоупотреблять ею, чтобы помечать видео независимо от того, был ли на самом деле использован ИИ.
YouTube не объяснил, как будет проверяться и оцениваться эта система рейтингов, что оставляет много возможностей для манипуляций. Авторы, которые годами создавали свою аудиторию, теперь могут столкнуться с новым риском, который мало связан с качеством их работы. Если система будет внедрена повсеместно без мер защиты, она может нанести вред как добросовестным авторам, так и низкокачественному контенту, созданному с помощью ИИ.
А что из этого получают зрители?
Даже если YouTube каким-то образом удастся справиться со злоупотреблениями, у системы есть ещё одна очевидная проблема: мотивация. Пометка контента, созданного с помощью ИИ, требует усилий и определённого понимания того, на что на самом деле способны инструменты ИИ, но YouTube не предлагает зрителям никаких очевидных преимуществ за помощь в выявлении недоработок, связанных с ИИ. Платформа, с другой стороны, получает более чистую ленту и постоянный поток пользовательских данных, ничего не предлагая взамен.
Существует также обоснованное опасение, что ничто не мешает YouTube использовать эту обратную связь для обучения будущих моделей ИИ, что потенциально может еще больше затруднить обнаружение видеороликов, созданных с помощью ИИ. По сути, это может превратить систему, предназначенную для борьбы с недостатками ИИ, в систему, которая помогает его улучшать.
Подход YouTube не попадает в цель.
Новая система рейтингов — это еще одна попытка YouTube показать, что платформа серьезно относится к проблеме низкокачественного контента, созданного с помощью ИИ, но она по-прежнему не делает достаточно. Она не запрещает авторам публиковать контент, созданный с помощью ИИ, и хотя требует раскрытия информации о таком контенте, это правило применяется только в определенных случаях. Штрафы за монетизацию также ограничены, поскольку они основаны на тех же системах обнаружения, которые уже пропускают слишком много низкокачественного контента, созданного с помощью ИИ.
YouTube сам способствовал созданию этой проблемы, разрешая и монетизируя контент, созданный с помощью ИИ, на протяжении многих лет, и его попытки сдержать это явление потерпели неудачу на каждом шагу. Перекладывание ответственности за очистку контента на зрителей без объяснения того, как будут использоваться их данные, и без каких-либо предложений взамен, рассматривает их скорее как бесплатный ресурс, чем как сообщество. Если YouTube всерьез намерен бороться с некачественным контентом, созданным ИИ, ему необходимо взять решение в свои руки, а не перекладывать эту задачу на зрителей.
Статья "YouTube перекладывает на вас проблему с некачественным ИИ, и это ужасная идея" впервые появилась на сайте Digital Trends .