«Самый мощный ИИ» Японии потерпел крах! Его код полностью создан с помощью DeepSeek, что повергло японских интернет-пользователей в панику.

«Наконец-то наступила эра, когда Япония использует китайский ИИ для имитации японского ИИ».
Этот вопрос недавно вызвал ажиотаж в японских дискуссиях, связанных с X-технологиями. Причина в том, что вчера японская технологическая компания Rakuten Group при поддержке проекта GENIAC (финансируемого правительством Японии проекта в области искусственного интеллекта) Министерства экономики, торговли и промышленности (METI) выпустила Rakuten AI 3.0, которая позиционируется как «самая большая и мощная» модель в Японии с 700 миллиардами параметров.
Однако вскоре после выпуска сообщество разработчиков открытого программного обеспечения быстро обнаружило, что базовая архитектура модели на самом деле взята из нашей модели DeepSeek-V3, и Rakuten внесла лишь незначительные корректировки в японские данные.
В известной библиотеке искусственного интеллекта с открытым исходным кодом Hugging Face, Rukuten AI 3.0 в своем конфигурационном файле четко указывает, что ее архитектура основана на DeepSeek V3.
В пресс-релизе модели Rakuten AI 3.0 не упоминался DeepSeek, лишь туманно говорилось, что «она включает в себя лучшие достижения сообщества разработчиков открытого программного обеспечения», что заставило многих пользователей сети поверить в то, что модель была независимо разработана в Японии.
Ещё более роковой является то, что Rakuten тайно удалила файл с открытой лицензией MIT для DeepSeek, когда он был опубликован, пытаясь скрыть этот факт. Только после того, как сообщество признало их виновными, они смущённо добавили его обратно под именем файла "NOTICE".
▲Вы можете просмотреть историю коммитов файлов проекта на Hugging Face, отображающую внесенные изменения.
Японские пользователи сети выразили свое недовольство, заявив: «Это неприемлемо». Они указали на то, что японское правительство субсидирует приложение, но вносит лишь незначительные изменения в китайское приложение DeepSeek. Некоторые даже сказали, что тайное использование DeepSeek — это очень глупо.
Самообманчивое утверждение «самого сильного в Японии»
Судя по пресс-релизу Rakuten, эту модель действительно можно считать довольно успешным запуском в сфере программ обучения магистров права в Японии.
Это гибридная экспертная модель (MoE) с приблизительно 700 миллиардами параметров. Подтверждено сообществом разработчиков открытого программного обеспечения, что она имеет те же 671 миллиард параметров, что и DeepSeek V3, при этом 37 миллиардов параметров являются активными. Главный директор Rakuten по искусственному интеллекту, Тин Цай, описал её как «выдающееся сочетание данных, инженерных решений и инновационной архитектуры в масштабе».
Имя Тин Цай совсем не похоже на имя коренного японца. Некоторые японские пользователи сети прокомментировали, что использование DeepSeek — это перебор, и ещё более возмутительно то, что руководитель этой модели — ярый противник иммиграции.
Мы выяснили, что Тин Цай работал в Google и Apple в США, а также более 15 лет проработал в Microsoft. Он изучал информатику в Университете Стоуни-Брук в США. В интервью он заявил, что впервые выехал за границу в восемнадцать лет, в Японию, и что он действительно является « ярым сторонником иммиграции ».
Что касается производительности Rakuten AI 3.0, то в различных официально опубликованных тестах она показала чрезвычайно высокие результаты по таким параметрам, как знание японской культуры, истории, логическое мышление на уровне аспирантуры и даже знание математики и умение следовать инструкциям, демонстрируя сильный потенциал для завоевания обширного сообщества разработчиков моделей в Японии.
Однако для сравнения используются модели GPT 4o (сейчас снятая с производства), GPT OSS с всего 120 миллиардами параметров и модель ABEJA QwQ 32b, разработанная компанией ABEJA, еще одной перспективной японской компанией по разработке ИИ, на основе Qianwen.
По сравнению с максимальными 120 миллиардами иен, 700 миллиардов иен представляют собой значительное преимущество для Rakuten AI 3.0. Кроме того, как ключевой бенефициар проекта GENIAC Министерства экономики, торговли и промышленности, Rakuten получил значительные вычислительные ресурсы. Первоначальная цель проекта GENIAC заключалась в создании в Японии собственной экосистемы генеративного искусственного интеллекта, что позволило бы снизить опасения по поводу зависимости от технологий иностранных гигантов.
Благодаря огромному количеству параметров и фильтру «национальная команда», Rakuten AI 3.0 с момента запуска приобрел ауру «надежды всей деревни».
Это по-прежнему должен быть DeepSeek.
Но ореол погас быстрее, чем ожидалось.
Если оставить в стороне 700 миллиардов параметров и архитектуру MoE, то эти ключевые слова в совокупности невероятно актуальны в современном сообществе разработчиков моделей больших данных с открытым исходным кодом. Когда разработчики из сообщества открытого исходного кода изучили подробные файлы конфигурации кода на Hugging Face, они с удивлением обнаружили, что там прямо указано DeepSeek V3.
С фундаментальной точки зрения, это сочетание «китайской архитектуры + японских доработок». DeepSeek предоставляет проверенную во всем мире и высокоэффективную базовую архитектуру и возможности вывода, в то время как Rakuten использует свои локальные преимущества для ее доработки с помощью высококачественных японских корпусов, делая ее более восприимчивой к японской культуре.
Объективно говоря, взять модель с открытым исходным кодом и внести в нее локальные изменения — это совершенно нормальное и разумное явление в технологическом сообществе. Как и в случае с моделью ABEJA QwQ 32b, которую они использовали для сравнения, они даже не изменили кодовое название, напрямую используя QwQ от Qwen.
▲Издание Nikkei сообщило, что шесть из десяти лучших моделей, разработанных японскими компаниями, были основаны на DeepSeek или Qwen и впоследствии были модифицированы.
Если бы Rakuten открыто признала использование платформы DeepSeek на этот раз, это было бы не более чем невзрачным «оболочечным» релизом, и они даже могли бы воспользоваться популярностью DeepSeek.
Но они предпочли спрятаться.
Ранее, когда мы делились информацией об использовании браузером Meituan проектов с открытым исходным кодом, мы упоминали различные лицензии на открытый исходный код. Среди них лицензия MIT от DeepSeek считается «самой скромной и толерантной» лицензией в мире открытого исходного кода. Она позволяет пользователям использовать его в коммерческих целях, модифицировать и даже монетизировать его с помощью закрытого исходного кода бесплатно. Единственное требование — сохранение авторских прав и лицензионных соглашений первоначального автора в проекте.
▲Rakuten Models выпустили пресс-релиз|
https://global.rakuten.com/corp/news/press/2026/0317_01.html
Компания Rakuten не только полностью исключила DeepSeek из своего блога, посвященного выпуску новых моделей, но и удалила лицензионный документ из своего кода, а также публично объявила об использовании лицензии Apache 2.0 для своего открытого исходного кода. Хотя лицензия Apache 2.0 также является чрезвычайно коммерчески привлекательной лицензией для открытого исходного кода, она более формальна и часто используется крупными компаниями для создания собственных экосистем открытого исходного кода и защиты от патентов.
▲Сравнение различных лицензий с открытым исходным кодом: Лицензия MIT более либеральна и лаконична, чем лицензия Apache. Предоставляя свободу, Apache 2.0 явно включает в себя защиту патентов и более строгие положения об освобождении от ответственности, что делает её подходящей для крупных коммерческих проектов с более строгим контролем юридических рисков. | Изображение из интернета
План Rakuten был хитрым: убрать название DeepSeek, использовать собственную лицензию Apache 2.0, а затем позиционировать себя как спасителя Японии в области ИИ, "щедро открывшего исходный код огромной модели с 700 миллиардами параметров".
Европейская и американская версии DeepSeek, о которых говорят уже больше года, похоже, так и не были созданы.
Компания Rakuten также хочет создать японскую версию DeepSeek, но под давлением вычислительных мощностей и стоимости обучения, а также в условиях стремительного развития крупномасштабных моделей по всему миру, очевидно, сложно достичь максимальной экономической эффективности китайских технологий, одновременно не желая отказываться от статуса «местного гиганта».
Почему бы нам не подождать вместе DeepSeek V4?
#Добро пожаловать на официальный аккаунт iFanr в WeChat: iFanr (идентификатор WeChat: ifanr), где вы сможете в кратчайшие сроки увидеть еще больше интересного контента.







