Платформа Blackwell следующего поколения от Nvidia появится в Google Cloud в начале 2025 года
Платформа Blackwell следующего поколения от Nvidia появится в Google Cloud в начале 2025 года. На этой неделе в Лас-Вегасе пройдет Google Cloud Next, а это значит, что пришло время для множества новых типов инстансов и ускорителей появиться на Google Cloud Platform. Помимо новых чипов Axion на базе Arm , большая часть анонсов в этом году касается ускорителей искусственного интеллекта, созданных Google или Nvidia. Всего несколько недель назад Nvidia анонсировала свою платформу Blackwell. Но не ждите, что Google предложит эти машины в ближайшее время. Поддержка высокопроизводительной Nvidia HGX B200 для рабочих нагрузок искусственного интеллекта и высокопроизводительных вычислений и GB200 NBL72 для обучения модели большого языка (LLM) появится в начале 2025 года. Один интересный момент из объявления Google: серверы GB200 будут иметь жидкостное охлаждение. Это может показаться несколько преждевременным заявлением, но Nvidia заявила, что ее чипы Blackwell не будут общедоступны до последнего квартала этого года. Для разработчиков, которым сегодня требуется больше возможностей для обучения LLM, Google также анонсировал экземпляр A3 Mega. Этот экземпляр, который компания разработала совместно с Nvidia, оснащен графическими процессорами H100, являющимися отраслевыми стандартами, но сочетает их с новой сетевой системой, которая может обеспечить вдвое большую пропускную способность на каждый графический процессор. Еще один новый экземпляр A3 — A3 конфиденциальный, который Google описал как позволяющий клиентам « лучше защищать конфиденциальность и целостность конфиденциальных данных и рабочих нагрузок ИИ во время обучения и формирования выводов». Компания уже давно предлагает услуги конфиденциальных вычислений , которые шифруют используемые данные, и здесь, после включения, конфиденциальные вычисления будут шифровать передачу данных между процессором Intel и графическим процессором Nvidia H100 через защищенный PCIe. По словам Google, никаких изменений кода не требуется. Что касается собственных чипов Google, во вторник компания выпустила в широкую доступность процессоры Cloud TPU v5p — самые мощные из собственных ускорителей искусственного интеллекта. Эти чипы обеспечивают двукратное увеличение количества операций с плавающей запятой в секунду и трехкратное увеличение скорости полосы пропускания памяти. Все эти быстрые чипы нуждаются в базовой архитектуре, которая могла бы не отставать от них. Поэтому в дополнение к новым чипам Google также анонсировала во вторник новые варианты хранения данных, оптимизированные для искусственного интеллекта. По данным Google, Hyperdisk ML, который сейчас находится в предварительной версии, представляет собой сервис блочного хранения нового поколения, который может сократить время загрузки модели до 3,7 раз. Google Cloud также запускает ряд более традиционных экземпляров на базе процессоров Intel Xeon четвертого и пятого поколений. Например, новые инстансы общего назначения C4 и N4 будут оснащены процессорами Emerald Rapids Xeon пятого поколения, причем C4 ориентирован на производительность, а N4 — на цену. Новые экземпляры C4 сейчас находятся в частной предварительной версии, а машины N4 уже доступны. Также новыми, но все еще находящимися в предварительной версии, являются компьютеры C3 с голым железом на базе старых процессоров Intel Xeon четвертого поколения, экземпляры X4 с оптимизированной памятью (также в предварительной версии) и Z3, первая виртуальная машина Google Cloud, оптимизированная для хранения данных. который обещает предложить «самый высокий показатель IOPS для экземпляров, оптимизированных для хранения данных, среди ведущих облаков». Автор: Frederic Lardinois. Источник: www.techcrunch.com
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ