NVIDIA вносит свой вклад в разработку платформы Blackwell для открытой аппаратной экосистемы, ускоряя инновации в инфраструктуре ИИ
NVIDIA вносит свой вклад в разработку платформы Blackwell для открытой аппаратной экосистемы, ускоряя инновации в инфраструктуре ИИ. Чтобы стимулировать разработку открытых, эффективных и масштабируемых технологий для центров обработки данных, NVIDIA передает ключевые компоненты своей платформы ускоренных вычислений NVIDIA Blackwell в проект Open Compute Project (OCP) и расширяет поддержку стандартов OCP с помощью сетевой платформы NVIDIA Spectrum-X™. На глобальном саммите OCP NVIDIA поделится элементами системы NVIDIA GB200NVL72: архитектурой стойки, характеристиками вычислительных и коммутационных лотков, жидкостным охлаждением и тепловой средой, а также кабельным картриджем NVIDIA NVLink для поддержки высокой плотности вычислений и пропускной способности сети. NVIDIA уже внесла несколько официальных вкладов в OCP, включая спецификацию дизайна материнской платы NVIDIA HGX™ H100. Расширенное соответствие сетевой платформы NVIDIA Spectrum-X Ethernet спецификациям OCP открывает новые горизонты производительности фабрик ИИ. «В течение десяти лет NVIDIA сотрудничает с OCP и лидерами отрасли, разрабатывая спецификации и проекты для центров обработки данных», — отметил Дженсен Хуанг, основатель и генеральный директор NVIDIA. «Продвигая открытые стандарты, мы помогаем организациям реализовать потенциал ускоренных вычислений и создавать фабрики ИИ будущего». Ускоренная вычислительная платформа NVIDIA была разработана для поддержки новой эры искусственного интеллекта. Система GB200NVL72 основана на модульной архитектуре NVIDIA MGX, позволяя производителям компьютеров создавать широкий спектр проектов инфраструктуры центров обработки данных. Система с жидкостным охлаждением объединяет 36 ЦП NVIDIA Grace™ и 72 ГП NVIDIA Blackwell, функционируя как единый массивный ГП для в30 раз более быстрого вывода больших языковых моделей в реальном времени. Сетевая платформа NVIDIA Spectrum-X Ethernet поддерживает стандарты SAI и SONiC OCP, ускоряя производительность Ethernet для масштабируемой инфраструктуры ИИ с помощью адаптивной маршрутизации Spectrum-X и управления перегрузками на основе телеметрии. ConnectX-8 SuperNIC поддерживают ускоренную сеть со скоростью до 800 Гбит/с и программируемые механизмы обработки пакетов для крупномасштабных рабочих нагрузок ИИ. В следующем году ConnectX-8 SuperNIC будут доступны для OCP 3.0, что позволит организациям создавать высокогибкие сети. По мере перехода от вычислений общего назначения к ускоренным и ИИ-вычислениям, NVIDIA сотрудничает с более чем 40 производителями электроники для создания фабрик ИИ. Meta планирует предоставить архитектуру Catalina AI rack на базе GB200NVL72 для OCP. «NVIDIA вносит значительный вклад в открытые вычислительные стандарты, включая платформу Grand Teton», — отметил Йи Джиун Сон, вице-президент по инжинирингу в Meta. «Последние достижения NVIDIA в проектировании стоек и модульной архитектуре помогут ускорить разработку и внедрение инфраструктуры ИИ во всей отрасли». Источник: www.globenewswire.com
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ