OpenAI уменьшила размер GPT-5.4 для повышения скорости и снижения затрат.

OpenAI уменьшает размеры своих последних моделей, чтобы достичь другой цели: более быстрой реакции и значительно меньшей стоимости. Новые GPT-5.4 mini и nano созданы для разработчиков, которым важнее скорость отклика, чем максимальная вычислительная мощность.

Обе модели доступны с сегодняшнего дня. GPT-5.4 mini работает более чем в два раза быстрее своего предшественника, оставаясь при этом близким к полной версии GPT-5.4 по ключевым показателям производительности. GPT-5.4 nano идет еще дальше, фокусируясь на более простых задачах, таких как классификация и извлечение данных, где эффективность имеет первостепенное значение.

Такой подход подходит для приложений, где скорость определяет пользовательский опыт. Программные помощники, фоновые агенты и инструменты обработки изображений в реальном времени зависят от быстрой обратной связи, и в таких случаях немного меньшая по размеру модель часто обеспечивает лучший общий результат.

Насколько сильно вы на самом деле теряете в производительности

Разница в производительности между моделями оказалась меньше, чем можно было ожидать. GPT-5.4 mini набирает 54,4% в SWE-Bench Pro, по сравнению с 57,7% у полной модели. В OSWorld-Verified mini достигает 72,1%, а более крупная версия — 75%, что делает разницу незначительной во всех задачах.

Стоимость снижается гораздо более существенно. GPT-5.4 mini стоит 0,75 доллара за миллион входных токенов и 4,50 доллара за миллион выходных токенов, в то время как nano стоит 0,20 и 1,25 доллара соответственно. Обе модели поддерживают ввод текста и изображений, использование инструментов, вызов функций и контекстное окно на 400 000 токенов, поэтому более низкая цена не лишает их основных возможностей.

В Codex мини-модель использует всего 30 процентов квоты GPT-5.4. Это позволяет разработчикам перенести рутинную работу по кодированию на более дешевый уровень, сохраняя полную модель для более сложных задач.

Когда более мелкие модели берут на себя основную работу

OpenAI также продвигает многомодельный рабочий процесс. Вместо того чтобы полагаться на одну систему, разработчики могут разделить работу на несколько уровней, объединив более крупную модель для планирования с более мелкими моделями, отвечающими за выполнение.

Такая структура отражает то, как уже работают многие реальные приложения. Одна модель может анализировать код или принимать решения об изменениях , в то время как другая обрабатывает вспомогательные данные или выполняет повторяющиеся действия. Меньшая модель занимается предсказуемой работой, а большая фокусируется на принятии решений и координации.

Первые отзывы свидетельствуют об эффективности этой комбинации. Технический директор Hebbia Аабхас Шарма сообщил, что GPT-5.4 mini показал результаты, сопоставимые или превосходящие показатели конкурирующих моделей в ряде задач при меньших затратах, а в некоторых случаях даже обеспечил более высокие сквозные результаты, чем полная версия GPT-5.4.

Что использовать и когда

GPT-5.4 mini теперь доступен через API, Codex и ChatGPT . Пользователи бесплатной и Go-версий могут получить к нему доступ через опцию Thinking, в то время как другие пользователи могут использовать его в качестве резервного варианта при достижении лимитов в GPT-5.4 Thinking.

Модель nano в настоящее время ограничена API и предназначена для команд, обрабатывающих большие объемы данных, где контроль затрат имеет решающее значение. Обе модели запущены сегодня, и полная документация доступна.

Для разработчиков, создающих функции искусственного интеллекта в реальном времени, этот сдвиг очевиден. Более компактные модели теперь достаточно мощны, чтобы справляться с большей частью повседневной работы, что делает выбор оптимального баланса скорости, стоимости и возможностей все более практичным решением.

Статья"OpenAI уменьшает размер GPT-5.4 для повышения скорости и снижения затрат" впервые появилась на сайте Digital Trends .