Только что состоялся дебют лобстера от Nvidia! Возмутительные заявления Дженсена Хуанга «Люди, автомобили, дома, Земля и чипы» готовы принести триллионы долларов дохода.

В этом году основная презентация Nvidia GTC, вероятно, оказалась наименее неожиданной за всю историю конференции.

В 2022 году основное внимание уделялось метавселенной; в 2023-2024 годах — генеративному искусственному интеллекту; а в 2025 году — физическому искусственному интеллекту. Но этот год отличается. Еще до начала выступления основателя NVIDIA Дженсена Хуанга все в зале уже знали ответ — Агент.

Даже Nvidia незаметно организовала интерактивную зону «Собери клешню» на территории кампуса GTC, позволив участникам создавать собственных агентов искусственного интеллекта прямо на месте. От чипов до моделей, от омара Nvidia до центров обработки данных — подтекст основной речи этого года можно суммировать в одном предложении:

Всё должно уступить место Агенту.

Программа Vera Rubin, разработанная специально для Agentic AI, официально выпущена.

Если архитектура Хоппера положила начало эре генеративного ИИ, позволив машинам «говорить», то миссия Веры Рубин состоит в том, чтобы положить начало эре агентного ИИ, позволив машинам «выполнять работу».

  • Архитектура NVIDIA Vera Rubin включает в себя семь чипов, пять стоечных систем и суперкомпьютер для агентов искусственного интеллекта.
  • В состав группы входят семь чипов: NVIDIA Vera CPU, NVIDIA Rubin GPU, NVIDIA NVLink и другие. ™ 6 коммутаторов, сетевая карта NVIDIA ConnectX-9 Super NIC, процессор NVIDIA BlueField-4 DPU и NVIDIA Spectrum. ™ -6 коммутаторов Ethernet и недавно интегрированный процессор NVIDIA Groq 3 LPU.
  • В состав комплекса входят пять стоек: стойка NVIDIA Vera Rubin NVL72, стойка NVIDIA Vera CPU, стойка NVIDIA Groq 3 LPX, стойка для хранения данных NVIDIA BlueField-4 STX и стойка NVIDIA Spectrum-6 SPX Ethernet.

Раньше ИИ был похож на чрезвычайно умного библиотекаря. Мы задавали вопрос, а он медленно пролистывал книги и затем систематизировал ответ. Мы терпели такую ​​скорость, потому что сами медленно печатаем и читаем.

Но агенты совершенно другие. Им нужно не только мыслить с помощью больших моделей, но и лихорадочно использовать инструменты — например, открывать браузеры, управлять виртуальными ПК в облаке и сравнивать данные между бесчисленными базами данных. Более того, ИИ крайне нетерпим к инструментам; он требует, чтобы все операции выполнялись за миллисекунды.

«Это сильно запечатлеется в памяти», — заявил Хуан Жэньсюнь со сцены.

По мере того как модели становятся все больше, а длина контекста возрастает от сотен тысяч токенов до миллионов, и возникает необходимость одновременной обработки как структурированных, так и неструктурированных данных, традиционные вычислительные архитектуры начинают испытывать трудности. Для решения этой проблемы компания NVIDIA представила свой первый ответ: новый процессор Vera.

Этот чип уникален; это первый в мире процессор, разработанный специально для эпохи интеллектуальных агентов, искусственного интеллекта и обучения с подкреплением. Он вдвое эффективнее традиционных процессоров для установки в стойку, на 50% быстрее и использует память LPDDR5X, что обеспечивает чрезвычайно высокую производительность в однопоточном режиме, большой объем передаваемых данных и исключительную энергоэффективность.

Дженсен Хуанг даже не скрывал своей гордости: «Мы никогда не думали, что будем продавать процессоры по отдельности, но теперь это определенно многомиллиардный бизнес».

Следом идет графический процессор Rubin, однокристальный чип с огромным объемом памяти в 288 ГБ. Это как мыслитель с неограниченными возможностями мозга, специально разработанный для обработки все более масштабных языковых моделей и сотен миллионов кэшей контекстных значений типа «ключ-значение».

Помимо объединения процессоров и видеокарт, новая архитектура Vera Rubin от NVIDIA удваивает пропускную способность NVLink — до 260 ТБ/с полной пропускной способности межсоединений.

Десять лет назад в DGX-1 использовалась технология NVLink первого поколения для соединения восьми карт — чудо техники, разработанное специально для исследователей в области искусственного интеллекта; в эпоху Hopper появилась технология NVLink 4; а в современной архитектуре Blackwell использовалась технология NVLink 72 для обеспечения полного соединения 72 графических процессоров с пропускной способностью 130 ТБ/с.

В дополнение к Вере Рубин, Дженсен Хуанг даже представил совершенно новую стойку под названием Kyber. В этой стойке вычислительные узлы размещаются вертикально, а за ними располагаются коммутаторы NVLink шестого поколения. Полностью отказавшись от ограничений традиционного Ethernet или InfiniBand, она напрямую соединяет 144 графических процессора в рамках одного домена NVLink.

Даже такая влиятельная компания, как Vera Rubin, испытывает трудности, сталкиваясь с чрезвычайно высоким спросом на «генерацию неограниченного количества токенов».

В мире вычислительной мощности пропускная способность (способность обрабатывать огромное количество задач одновременно) и задержка (чрезвычайно быстрое время отклика одной задачи) являются заклятыми врагами в физике. Nvidia является абсолютным лидером по пропускной способности, но традиционные архитектуры графических процессоров слишком громоздки для генерации токенов с чрезвычайно низкой задержкой.

Вот тут-то и вступает в игру Groq. Компания NVIDIA ранее «приобрела» и лицензировала технологию команды Groq, а сегодня официально представила Groq LPU (Language Processing Unit).

Дженсен Хуанг использовал программное обеспечение Dynamo для идеального объединения этих двух элементов, создав первую «дезагрегированную инференцию».

  • Механизмы предварительного заполнения и внимания, требующие чрезвычайно больших вычислительных затрат в первой половине процесса вывода ИИ, обрабатываются Верой Рубин, обладающей невероятной производительностью.
  • Вторая половина процесса декодирования, то есть момент генерации токена, напрямую передается на LPU Groq для уменьшения задержки.

Результаты показали, что в наиболее коммерчески ценном сегменте высокопроизводительных вычислений эта комбинация напрямую повысила производительность в 35 раз, а также увеличила пропускную способность на мегаватт в 35 раз.

Проект с открытым исходным кодом, который не дает спать по ночам всем генеральным директорам.

В заключительной части своей программной речи Дженсен Хуанг сделал предсказание, которое заставило всю аудиторию затаить дыхание: OpenClaw станет Linux этой эпохи, HTML этой эпохи.

OpenClaw, запущенный всего несколько недель назад, уже превзошёл тридцатилетний опыт Linux по количеству загрузок и влиянию. По сути, это интеллектуальная агентная операционная система. Она может запускать большие модели, управлять файлами, разбивать задачи, координировать действия подчиненных агентов и даже отправлять электронные письма и текстовые сообщения, общаясь с людьми любым способом.

По мнению Хуанга, каждая SaaS-компания в конечном итоге превратится в AgaaS-компанию, или компанию, предоставляющую «агент как услугу». И теперь каждый генеральный директор должен ответить на один и тот же вопрос: какова ваша стратегия в отношении OpenClaw?

Конечно, открытый исходный код означает свободу, но предприятиям больше нужна безопасность. Это также является самым большим препятствием на пути к широкомасштабному развертыванию OpenClaw.

С этой целью компания NVIDIA совместно с командой во главе с Питером Штайнбергером, основателем OpenClaw, собрала группу ведущих экспертов в области безопасности и вычислительной техники для запуска эталонной архитектуры NeMoClaw.

Она включает в себя технологию OpenShell, механизмы защиты сети и возможности маршрутизации с обеспечением конфиденциальности, что позволяет предприятиям безопасно запускать интеллектуальные агентские системы в своих собственных частных средах.

Поддерживая эту интеллектуальную экосистему агентов, компания NVIDIA использует всю линейку продуктов с открытым исходным кодом для моделирования.

Например, Nemotron специализируется на логическом мышлении, Cosmos — на моделировании мира, Groot ориентирован на универсальных роботов, Alpha Mayo занимается автономным вождением, BioNeMo активно участвует в цифровой биологии, а Earth-2 специализируется на моделировании физических процессов с помощью ИИ.

Дженсен Хуанг подчеркнул, что эти модели — не просто названия в рейтинге. NVIDIA продолжит инвестировать в их разработку; после Nemotron 3 появился Nemotron 4, а после Cosmos 1 — Cosmos 2, и каждое последующее поколение становится всё мощнее.

Что еще более важно, все эти модели являются открытыми базовыми моделями, что позволяет любому предприятию дорабатывать и дополнительно обучать их для создания персонализированных интеллектуальных решений, адаптированных к его собственным бизнес-сценариям. NVIDIA также объявила о сотрудничестве с партнерами в различных регионах, чтобы помочь разным странам и рынкам развивать локализованные возможности в области искусственного интеллекта.

На сцене Дженсен Хуанг также объявил о впечатляющем списке коллабораций. Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Sarvam и Thinking Machines, основанная Мирой Мурати, объединили усилия для продвижения разработки Nemotron 4.

Следует подчеркнуть, что Nvidia не довольствуется продажей лопат; компания хочет лично возглавить добычу золота. Что еще более важно, Nvidia также создает экосистему, целостную систему, ориентированную на эпоху интеллектуальных агентов.

Деньги на покупку видеокарт для геймеров стали результатом 25-летней кампании по сбору средств методом «краудфандинга».

Чтобы понять, почему Nvidia сегодня демонстрирует такое ужасающее превосходство, Дженсен Хуанг сначала вернул время на 25 лет назад.

Тогда не было ни ChatGPT, ни больших моделей, только группа молодых людей, отчаянно собиравших компьютеры, чтобы игра работала плавнее. «GeForce — это самая успешная маркетинговая кампания Nvidia за всю историю», — сказал Дженсен Хуанг с улыбкой на сцене.

Дженсен Хуанг откровенно признал, что GeForce была разработана для привлечения будущих клиентов. Они будут внедрять игровые видеокарты в наши компьютеры, пока мы еще не можем позволить себе продукты корпоративного уровня. День за днем, год за годом.

Благодаря поддержке поколений геймеров компания Nvidia 20 лет назад приняла решение, которое по тем временам казалось безумным и едва не обрушило прибыль компании, — разработать CUDA и установить её на рабочие столы каждого разработчика в мире.

Это можно описать как историю о том, как оставаться в тени. Благодаря 13 поколениям архитектуры и 20 годам неустанных усилий, NVIDIA полностью преобразовала CUDA в гиганта с сотнями миллионов установок.

Это также объясняет, почему, когда произошел «Большой взрыв» глубокого обучения, Алекс Крижевский и Илья Суцкевер огляделись вокруг и обнаружили, что у них нет другого выбора, кроме как использовать графические процессоры Nvidia.

Компания Nvidia не просто оказалась в нужном месте в нужное время; она потратила 20 лет на строительство собственной ветряной турбины.

Как только маховик начинает вращаться, он уже никогда не остановится. Потому что в этом маховике оборудование — всего лишь носитель; разработчиков по-настоящему объединяют тысячи и тысячи инструментов, фреймворков и проектов с открытым исходным кодом.

Поскольку именно игровые видеокарты GeForce тогда подарили миру вычислительные мощности для искусственного интеллекта (CUDA), теперь, десять лет спустя, пришло время для полноценного ИИ вернуться в свою первоначальную «родину».

На сцене Дженсен Хуанг представил DLSS 5, поразив всю аудиторию. Проще говоря, NVIDIA заново изобретает компьютерную графику с помощью ИИ. Традиционный 3D-рендеринг использует «структурированные данные», которые являются жесткими и на 100% контролируемыми; в то время как генеративный ИИ использует «вероятностные вычисления», которые являются творческими и чрезвычайно реалистичными.

Ранее эти два подхода были совершенно разными, но в DLSS 5 NVIDIA удалось их объединить, используя управляемые 3D-данные в качестве основы и генеративный ИИ для заполнения и рендеринга деталей. В результате получаются визуальные эффекты, избегающие иллюзий и неточностей, часто встречающихся в ИИ, и обладающие поразительно реалистичной текстурой.

«Созданный мир стал необычайно красивым и в то же время полностью контролируемым».

Но это не просто группа гиков, демонстрирующих свои навыки достижения высокой частоты кадров в играх. Дженсен Хуанг говорит, что эта логика интеграции «структурированных данных» с «генеративным ИИ» будет повторяться снова и снова в каждой отрасли.

«Это мой любимый слайд».

В кульминационный момент своей речи Дженсен Хуанг продемонстрировал чрезвычайно сложную архитектурную схему, заявив, что это его любимый слайд. Затем он в шутку добавил, что его команда неоднократно отговаривала его от показа этой схемы, но он настоял, сказав: «В любом случае, некоторые из вас пришли бесплатно, это ваша цена билета».

Эта "самая упорная презентация PowerPoint" действительно раскрывает следующую цель Nvidia: глобальные корпоративные центры обработки данных.

В прошлом корпоративные данные делились на две категории.

Один тип данных — это структурированные данные, такие как огромные таблицы в распространенных базах данных, например, SQL и Pandas, которые составляют основу бизнес-операций. Другой тип — это неструктурированные данные, такие как огромные массивы PDF-файлов, видео и аудиозаписей, которые составляют 90% мировой информации, но часто оказываются бесполезными из-за сложности их поиска.

На протяжении десятилетий обработка этих огромных электронных таблиц Excel была исключительной прерогативой центральных процессоров. Когда люди обращаются к этим таблицам, скорости процессора едва хватает. Но Дженсен Хуанг проницательно указал на будущую тенденцию: «В будущем именно агенты искусственного интеллекта будут использовать эти структурированные базы данных».

Когда тысячи неутомимых агентов искусственного интеллекта одновременно отправляют запросы к базе данных со скоростью, в миллионы раз превышающей скорость обработки данных человеком, традиционные центральные процессоры даже не успевают передохнуть и мгновенно оказываются перегружены.

Для решения этой проблемы Nvidia представила свое первое низкоуровневое «убийственное» приложение: cuDF. Оно обходит центральный процессор и использует впечатляющую вычислительную мощность графического процессора для значительного увеличения скорости обработки этих данных.

Для работы с неструктурированными данными NVIDIA представила свой второй инструмент: cuVS — библиотеку, специально разработанную для векторных баз данных и неструктурированных данных. Благодаря этим двум базовым библиотекам NVIDIA фактически контролирует весь процесс глобальной обработки данных, переосмысливая подход предприятий к работе с данными с помощью ИИ.

Результаты применения двух наборов инструментов также оказались весьма впечатляющими. Хуанг привел множество примеров своих партнеров, включая Nestlé, которая ежедневно обрабатывает огромные массивы данных о цепочках поставок, охватывающие 185 стран. После перехода на IBM Watsonx.data, ускоренную NVIDIA, скорость обработки данных увеличилась в пять раз, а затраты снизились на 83%.

В этом и заключается пугающий аспект «ускоренных вычислений». Когда скорость увеличится на несколько порядков, затраты резко снизятся, и в этот момент появятся новые бизнес-модели.

На этом этапе своей речи Хуан Жэньсюнь продолжал говорить об «алгоритмах», «библиотеках» и «фреймах данных», прямо заявив, что «Nvidia — это компания, занимающаяся алгоритмами».

Nvidia интегрирует свои алгоритмические библиотеки в системы каждого облачного провайдера, и клиенты приобретают облачные сервисы только для того, чтобы использовать вычислительные мощности и платформу Nvidia. Именно поэтому почти все мировые гиганты облачных сервисов — Google Cloud, AWS, Microsoft Azure и Oracle — вынуждены выстраиваться в очередь, чтобы получить доступ к сервисам Nvidia в своих центрах обработки данных.

В эпоху ускоренных вычислений некогда могущественные облачные провайдеры, похоже, незаметно превращаются в «базовую инфраструктуру» и «каналы распространения» обширной экосистемы Nvidia.

Как Nvidia удаётся всё это делать? Дженсен Хуанг дал крайне нетривиальное определение: Nvidia — первая в мире компания, которая «вертикально интегрирована, но при этом горизонтально открыта».

На заключительном этапе производства компания выпускает собственные микросхемы и системы; на заключительном этапе она понимает сценарии применения в каждой отрасли.

Его используют количественные трейдеры в финансовой индустрии, фармацевтические исследования и разработки в медицинской отрасли, и даже базовая станция в телекоммуникационной отрасли, которая только передает сигналы, в будущем станет узлом периферийных вычислений, на котором будут работать алгоритмы искусственного интеллекта.

Компания Nvidia даже запустила технологию конфиденциальных вычислений, позволяющую обрабатывать крайне конфиденциальные корпоративные данные и модели в полностью изолированной среде, незаметной даже для операторов. Это напрямую развеяло последние опасения технологических гигантов по поводу внедрения ИИ.

Она представляет собой набор базовых библиотек алгоритмов, а затем, подобно воде и электричеству, незаметно интегрируется в инфраструктуру каждого; казалось бы, распределяя всю прибыль между партнерами по экосистеме, Nvidia на самом деле прочно ухватилась за жизненно важный канал всей эры искусственного интеллекта.

1 триллион долларов, и дефицит всё равно останется.

По оценке Дженсена Хуанга, к 2027 году глобальная инфраструктура искусственного интеллекта достигнет как минимум 1 триллиона долларов, и это консервативная оценка; фактический спрос на вычислительные ресурсы значительно превысит эту цифру.

Откуда взялась эта цифра? Ответ кроется в самом важном нововведении Nvidia за последний год — в разработке алгоритмов обработки данных с использованием искусственного интеллекта.

Хуан Жэньсюнь прямо заявил, что многие считают рассуждения простым делом, но на самом деле все обстоит совершенно наоборот.

Выполнение сложных вычислений является наиболее сложной и важной задачей в области искусственного интеллекта, поскольку оно напрямую влияет на рост доходов. В связи с этим NVIDIA приняла смелое решение на пике развития своей архитектуры Hopper, полностью переработав её для создания NVLink 72, представив формат точности NVFP4 и интегрировав его с Dynamo, TensorRT-LLM и целым набором новых алгоритмов. Они даже создали специализированный суперкомпьютер для оптимизации всего технологического стека.

Ставка Nvidia принесла результаты, намного превзошедшие все ожидания.

Дженсен Хуанг однажды заявил, что Grace Blackwell NVLink 72 обеспечивает 35-кратное повышение производительности на ватт, но тогда ему никто не поверил. Позже SemiAnalysis опубликовал обзор, в котором аналитик Дилан Патель заявил, что Хуанг был слишком консервативен, и фактическое улучшение составило 50 раз.

▲Хуан Жэньсюнь в шутку называл себя «Королём обезьян» или «Королём-символом».

Согласно закону Мура, одно поколение продукта обычно обеспечивает улучшение лишь в 1,5 раза, и никто не ожидал, что в этот раз оно составит 50 раз.

После повышения производительности возникает другая проблема. Строительство дата-центра мощностью 1 гигаватт, амортизация которого составляет 15 лет, обходится в колоссальные 40 миллиардов долларов, и это еще до установки оборудования. При таком масштабе инвестиций вычислительные системы, размещенные в центре, должны быть лучшими в мире; в противном случае каждый ватт потраченной впустую электроэнергии представляет собой реальную потерю дохода.

Дженсен Хуанг признал, что на предприятиях по разработке искусственного интеллекта по всему миру тратится впустую большое количество электроэнергии.

С этой целью компания NVIDIA выпустила платформу NVIDIA DSX, основанную на технологии цифрового двойника Omniverse, которая позволяет инженерам моделировать всю фабрику ИИ в виртуальном пространстве до фактического начала строительства, четко моделируя все, от теплоотвода до электросети.

Благодаря технологии Max-Q система может динамически регулировать соотношение между энергопотреблением и вычислительной мощностью в режиме реального времени.

Дженсен Хуанг заявил, что потенциал для оптимизации как минимум вдвое больше. При использовании того же оборудования, после обновления алгоритмов и программного обеспечения NVIDIA, скорость генерации токенов для таких поставщиков услуг, как Fireworks, подскочила с 700 в секунду до почти 5000 в секунду, увеличившись в семь раз. В этом и заключается истинный смысл «идеального совместного проектирования».

Раньше центры обработки данных хранили файлы; теперь они производят токены. Площадь земли, электроэнергии и серверных помещений определяют верхний предел мощности фабрики, а качество архитектуры определяет объем выпускаемой продукции. Дженсен Хуанг сказал, что в будущем каждая компания будет серьезно задумываться об эффективности своей фабрики по производству токенов, поскольку вычислительная мощность сама по себе является источником дохода.

Что еще более важно, еще до завершения строительства фабрик по производству искусственного интеллекта на Земле, Nvidia уже нацелилась на космос.

Чипы NVIDIA Thor получили сертификат радиационной стойкости и впервые используются в спутниках. NVIDIA также сотрудничает с партнерами в разработке нового компьютера под названием NVIDIA Space-1 Vera Rubin с целью создания центров обработки данных непосредственно в космосе.

В космосе отсутствует воздух, что делает конвекционное охлаждение невозможным, а рассеивание тепла представляет собой чрезвычайно сложную инженерную задачу. Дженсен Хуанг признал ее сложность, но выразил уверенность, что у Nvidia достаточно квалифицированных инженеров, чтобы ее преодолеть. Расширение вычислительных мощностей Nvidia, от Земли до орбиты, продолжается.

Настал решающий момент для ChatGPT в сфере автономного вождения.

Физический искусственный интеллект — важнейшая тема следующего десятилетия, и Дженсен Хуанг в одном предложении заявил, что настал момент ChatGPT для автономного вождения.

Платформа NVIDIA RoboTaxi Ready пополнилась четырьмя крупными партнерами: BYD, Geely, Isuzu и Nissan, которые будут совместно разрабатывать беспилотные автомобили 4-го уровня автономности.

Эти четыре автопроизводителя в совокупности выпускают около 18 миллионов автомобилей в год, что является ошеломляющим объемом. Вместе с Mercedes, Toyota и GM, которые уже присоединились к ним, платформа Nvidia для автономного вождения теперь охватывает некоторых из самых важных мировых автопроизводителей.

Компания Nvidia также подписала партнерское соглашение с Uber о развертывании автомобилей RoboTaxi Ready в нескольких городах и их прямом подключении к глобальной сети мобильности Uber.

В области промышленных роботов NVIDIA сотрудничает с ведущими компаниями, такими как ABB, Universal Robots и KUKA, для интеграции физических моделей искусственного интеллекта в системы моделирования, что способствует широкомасштабному внедрению роботов на производственных линиях. Участие компании Caterpillar свидетельствует о том, что тяжелая строительная техника также начинает двигаться в сторону интеллектуализации.

Вступительная речь завершилась классическим выступлением роботов.

Недавно Олаф из «Холодного сердца» появился в зарубежных тематических парках Disney. На этот раз он также вышел на сцену GTC 2026 со своей очаровательной походкой, вступив в оживленную беседу с Дженсеном Хуангом. Его движения были естественными, а реакции — плавными.

Внутри него находится компьютер NVIDIA Jetson, который является мозгом всей системы. Его походка и движения отрабатываются в виртуальной среде Omniverse с использованием физического движка Newton, совместно разработанного NVIDIA, Disney и Google DeepMind и работающего на платформе NVIDIA Warp.

Именно эта система моделирования физических законов позволила Олафу полностью адаптироваться к законам физики, прежде чем попасть в реальный мир. Дженсен Хуанг сказал, что в будущем все персонажи в парках Диснея будут обладать настоящим интеллектом, свободно передвигаться по парку и вступать в подлинное взаимодействие с каждым посетителем.

В начале своей речи Дженсен Хуанг сказал: «Хочу напомнить вам, что это технологическая конференция. Мы будем говорить о технологиях, платформах и, что наиболее важно, мы будем говорить об экосистемах».

Экосистема? Он слишком скромничает; назвать это экосистемной империей не будет преувеличением. Хуанг однажды использовал пятислойный торт, чтобы описать структуру индустрии ИИ: нижний слой — это энергия и чипы, выше — инфраструктура и модели, а на самом верху — приложения.

Каждый слой незаменим. Эта аналогия звучит так, будто описывает структуру отрасли с четким разделением труда, где каждый выполняет свою работу. Но если посмотреть на этот торт снизу вверх, то окажется, что Nvidia приложила руку к каждому слою.

От самых первых видеокарт, «скрывавшихся» в корпусах компьютеров геймеров, до базовых платформ, доминирующих у мировых поставщиков облачных услуг; от радиационно-стойких центров обработки данных в космосе до роботизированных кукол, которые болтают и смеются с нами в Диснейленде.

Компания Nvidia потратила 20 лет на создание ветряной турбины, и теперь эта машина превратилась в бесконечную фабрику по производству токенов. На этой фабрике вычислительная мощность — это сила, а экосистема — это барьер для входа.

В то время как все предприятия и пользователи обеспокоены тем, как внедрить ИИ, Дженсен Хуанг незаметно проложил путь в эру агентов к каждому серверу в мире.

В этой азартной игре, посвященной будущему искусственного интеллекта, Nvidia выступает не только в роли игорного заведения, но и игрока, покупая весь стол целиком.

Авторы: Чжан Цзихао, Мо Чунюй

#Добро пожаловать на официальный аккаунт iFanr в WeChat: iFanr (идентификатор WeChat: ifanr), где вы сможете в кратчайшие сроки увидеть еще больше интересного контента.