GTC 2026: Nvidia превращает проблему данных в робототехнике в вычислительную задачу
На конференции GTC 2026 Nvidia существенно расширяет платформу для Physical AI (ИИ, взаимодействующего с физическим миром). Уже с 2027 года беспилотные автомобили Uber выедут на улицы Лос-Анджелеса. Промышленные роботы FANUC и ABB получат «мозги» от Nvidia. Новые модели сделают роботов-гуманоидов функциональнее.
Nvidia выстраивает полноценную платформу. Компания поставляет чипы, модели, инструменты симуляции и safety-архитектуры для партнеров в автопроме, робототехнике, медицине и телекоме. Анонсы охватили всю цепочку создания Physical AI — от пайплайнов обучающих данных до edge-вычислений (обработки данных непосредственно на конечных устройствах) в сетях 5G. CEO Nvidia Дженсен Хуанг назвал беспилотные автомобили первой роботизированной индустрией стоимостью в триллионы долларов. По его словам, со временем всё, что движется, станет автономным.
Uber запустит роботакси на базе Nvidia в Лос-Анджелесе к 2027 году
Самый конкретный анонс — расширение партнерства с Uber. Флот беспилотников на платформе DRIVE Hyperion и софте DRIVE AV к 2028 году должен работать в 28 городах на четырех континентах. Старт запланирован на первую половину 2027 года в Лос-Анджелесе и районе залива Сан-Франциско.
Nvidia позиционирует DRIVE Hyperion как стандартную архитектуру для автономности уровня Level 4 (полностью автономное вождение в определённых условиях). Помимо Uber, платформу адаптируют BYD, Geely и Nissan. Nissan использует софт британской AI-компании Wayve. Японский производитель коммерческого транспорта Isuzu совместно с TIER IV разрабатывает автономные автобусы на чипе DRIVE AGX Thor. В числе партнеров также числятся Bolt, Grab и Lyft.
Для обеспечения безопасности представлена Halos OS. Это трехуровневая архитектура на базе сертифицированной по стандарту ASIL-D (высший уровень функциональной безопасности) операционной системы DriveOS. Она включает safety-стек уровня NCAP на 5 звезд.
Alpamayo 1.5: управление ездой через текстовые команды
Nvidia представила Alpamayo 1.5 — open-source модель для автономного вождения. На вход она принимает видео с камер, историю движения, навигационные данные и инструкции на естественном языке. На выходе выдаёт траекторию движения с объяснением логики решений. Разработчики могут настраивать стиль вождения напрямую через текстовые промпты.
Модель поддерживает гибкие многокамерные конфигурации. Это упрощает развёртывание одного и того же AI-стека на разных линейках автомобилей. С момента старта портфель моделей Alpamayo скачали более 100 тысяч разработчиков.
Для тренировки и валидации служит Omniverse NuRec — технология симуляции на базе 3D Gaussian Splatting (метода быстрого рендеринга 3D-сцен из фотографий). Она реконструирует реальные дорожные ситуации для интерактивного тестирования и доступна в каталоге NGC. Инструмент уже используют dSPACE, Foretellix и Мичиганский университет на тестовой площадке Mcity.
Промышленные роботы учатся думать
Параллельно с автопромом Nvidia развивает роботизированную платформу. FANUC, ABB Robotics, YASKAWA и KUKA (по данным Nvidia, вместе они эксплуатируют более двух миллионов роботов по всему миру) интегрируют библиотеки Omniverse и фреймворки симуляции Isaac в свои решения для пусконаладки. Модули Jetson для AI-вывода на edge также встраиваются прямо в контроллеры роботов.
Nvidia анонсировала Cosmos 3. Это новая модель, объединяющая генерацию синтетических миров, визуальное мышление и симуляцию действий. Она призвана превзойти предыдущие версии моделей Cosmos.
Для роботов-гуманоидов Nvidia открыла ранний доступ к фундаментальной модели GR00T N1.7 с коммерческой лицензией. Она обучена обобщённым навыкам, включая контроль тонкой моторики. Хуанг также показал GR00T N2. Она основана на собственном исследовании DreamZero и использует новую архитектуру «World Action Model». По заявлениям Nvidia, роботы на GR00T N2 выполняют новые задачи в незнакомой среде более чем в два раза чаще ведущих vision-language-action моделей (моделей, связывающих зрение, речь и физические действия). GR00T N2 занимает первое место в бенчмарках MolmoSpaces и RoboArena. Её релиз ожидается в конце 2026 года. Модели GR00T позиционируются как универсальные решения для широкого спектра задач на разных роботизированных платформах.
Isaac Lab 3.0 (тоже в раннем доступе) ускоряет обучение роботов на инфраструктуре DGX. Она базируется на новом физическом движке Newton Physics Engine 1.0.
Партнерская экосистема охватывает как стартапы, так и гигантов. 1X, AGIBOT, Agility, Boston Dynamics, Figure, Hexagon Robotics и NEURA Robotics строят гуманоидов на платформе Nvidia. Skild AI работает с ABB и Universal Robots над универсальным ИИ для роботов в разных отраслях. Также Skild AI помогает Foxconn с высокоточной сборкой на собственных производственных линиях Blackwell.
Open-source архитектура против проблемы обучающих данных
Nvidia взялась за одну из главных проблем Physical AI. Моделям нужны огромные объёмы данных, включая редкие пограничные случаи (неожиданные и опасные ситуации на дороге или производстве). Собирать их в реальном мире сложно и дорого. Для решения задачи создан Physical AI Data Factory Blueprint.
Эта open-source референсная архитектура автоматизирует пайплайн от сырых данных до готовых датасетов в три этапа: Cosmos Curator (отбор), Cosmos Transfer (аугментация — искусственное расширение данных) и Cosmos Evaluator (оценка качества).
С помощью этой архитектуры и других платформ симуляции Nvidia собирается превратить проблему данных в робототехнике в вычислительную задачу. Узким местом для более мощных моделей становится не реальный автопарк, собирающий данные на дорогах. Это объем вычислительных мощностей, который компания готова вложить в симуляционное обучение.
Также представлен фреймворк оркестрации OSMO. Он интегрируется с кодинг-агентами вроде Claude Code, OpenAI Codex и Cursor. Это позволяет ИИ-агентам самостоятельно управлять ресурсами и устранять узкие места в пайплайне данных. Microsoft Azure и Nebius уже внедряют архитектуру в свои облачные сервисы. Релиз на GitHub запланирован на апрель.
IGX Thor отправляется в операционные и на орбиту
Платформа edge-вычислений Nvidia IGX Thor вышла в статусе general availability (полноценного коммерческого релиза). По сути, это AI-ПК для edge-задач. Платформа нацелена на критически важные для безопасности сценарии. Johnson & Johnson использует её для цифровой хирургической платформы Polyphonic. Karl Storz разрабатывает инструменты для эндоскопии. Medtronic оценивает платформу для хирургических роботизированных систем.
Вне медицины применение тоже широкое. Caterpillar применяет IGX Thor для AI-ассистента в кабине техники. Hitachi Rail использует платформу для предиктивного обслуживания. Planet Labs планирует обрабатывать данные со спутников прямо на орбите. Платформу также используют исследователи CERN для физических ИИ-моделей.
T-Mobile и Nokia превращают 5G-сети в edge-ИИ-инфраструктуру
Совместно с T-Mobile и Nokia Nvidia планирует трансформировать мобильные сети 5G в распределённую edge-ИИ-инфраструктуру. T-Mobile пилотирует Nvidia RTX PRO 6000 Blackwell Server Edition на узлах связи. Оператор тестирует приложения Physical AI через сотовую сеть.
Хуанг описал телеком-сети как эволюционирующую ИИ-инфраструктуру. Она позволит миллиардам устройств видеть, слышать и действовать в реальном времени.
Концепция проста: вместо отправки тяжёлых вычислений с камер и роботов в облако нагрузка разгружается на ближайший узел связи. Среди пилотных проектов — решение «City Operations Agent» для Сан-Хосе. Оно оптимизирует управление светофорами. По данным Nvidia, это сокращает время реагирования на инциденты в пять раз. Levatas и Skydio автоматизируют инспекцию линий электропередач по сетям 5G.
Nvidia также представила Metropolis VSS 3 Blueprint для создания видео-ИИ-агентов. Они способны искать и саммаризировать записи с камер. Найти конкретное событие можно менее чем за пять секунд. По статистике Nvidia, в мире установлено более 1,5 млрд камер. При этом люди просматривают менее 1% отснятого материала.
ИИ-агенты приходят в проектирование чипов и производство
На софтовой стороне Nvidia сотрудничает с Cadence, Dassault Systemes, Siemens и Synopsys. Все четверо создают ИИ-агентов для рабочих процессов проектирования чипов и систем. Они продемонстрировали, как модели Physical AI помогают в R&D и производстве, а GPU Nvidia ускоряют эти процессы. Cadence разрабатывает «ChipStack AI Superagent». Siemens создаёт «Fuse EDA AI Agent» (EDA — автоматизация проектирования электроники). Synopsys разрабатывает фреймворк «AgentEngineer». Dassault работает над ролевыми «Virtual Companions».
Honda запускает аэродинамические симуляции в Synopsys Ansys Fluent на платформе Grace Blackwell в 34 раза быстрее, чем на CPU. JLR и Mercedes-Benz используют Siemens Simcenter STAR-CCM+ на инфраструктуре Nvidia. MediaTek ускоряет Cadence Spectre в шесть раз с помощью GPU H100.
В полупроводниковом производстве Samsung, SK hynix и TSMC применяют GPU-ускоренные инструменты для литографии и физической верификации. Новый Siemens Digital Twin Composer построен на библиотеках Omniverse. Он создаёт промышленные цифровые двойники для Foxconn, HD Hyundai, PepsiCo и KION. Облачная инфраструктура для проектов предоставляется AWS, Google Cloud, Microsoft Azure и Oracle.
