NVIDIA представила графический процессор Hopper H200 с 141 ГБ памяти HBM3e
Переведено с помощью DeepL
Пресс Релиз
SC23 - NVIDIA сегодня объявила об усовершенствовании ведущей в мире вычислительной платформы для ИИ, представив NVIDIA HGX H200.
Основанная на архитектуре NVIDIA Hopper, платформа оснащена графическим процессором NVIDIA H200 Tensor Core с расширенной памятью для работы с огромными объемами данных для генеративного ИИ и высокопроизводительных вычислительных нагрузок.
NVIDIA H200 - первый GPU с поддержкой HBM3e - более быстрой и большой памяти для ускорения генеративного ИИ и больших языковых моделей, а также для научных вычислений в HPC.
Благодаря HBM3e NVIDIA H200 обеспечивает 141 ГБ памяти со скоростью 4,8 терабайт в секунду, что почти вдвое больше по объему и в 2,4 раза больше по пропускной способности по сравнению с предшественником NVIDIA A100.
Начало поставок систем на базе H200 от ведущих мировых производителей серверов и поставщиков облачных услуг ожидается во втором квартале 2024 года.
Для создания интеллекта с помощью генеративного ИИ и HPC-приложений необходимо эффективно обрабатывать огромные объемы данных на высокой скорости с использованием большой и быстрой памяти GPU.
С NVIDIA H200 ведущая в отрасли комплексная суперкомпьютерная платформа для ИИ стала еще быстрее для решения самых важных задач в мире.
Постоянные инновации, постоянные скачки производительности
Архитектура NVIDIA Hopper обеспечивает беспрецедентный скачок производительности по сравнению с предшественником и продолжает поднимать планку благодаря постоянным программным улучшениям в H100, включая недавний выпуск мощных библиотек с открытым исходным кодом, таких как NVIDIA TensorRT - LLM.
Внедрение H200 приведет к дальнейшему росту производительности, включая почти двукратное увеличение скорости вывода на Llama 2, LLM с 70 миллиардами параметров, по сравнению с H100.
Ожидается, что в последующих обновлениях программного обеспечения H200 еще больше увеличит производительность и улучшит ее.
Форм-факторы NVIDIA H200
NVIDIA H200 будет доступна в серверных платах NVIDIA HGX H200 с четырех- и восьмисторонней конфигурацией, которые совместимы как с аппаратным, так и с программным обеспечением систем HGX H100.
Он также доступен в суперчипе NVIDIA GH200 Grace Hopper с HBM3e, анонсированном в августе.
Благодаря этим возможностям H200 может быть развернут в любом типе ЦОД, включая локальные, облачные, гибридные и граничные.
Глобальная экосистема партнеров NVIDIA по производству серверов, включая ASRock Rack, ASUS, Dell Technologies, Eviden, GIGABYTE, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron и Wiwynn, может обновить свои существующие системы на H200.
Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure станут одними из первых поставщиков облачных услуг, которые со следующего года начнут развертывать инстансы на базе H200, а также CoreWeave, Lambda и Vultr.
Благодаря высокоскоростным межсоединениям NVIDIA NVLink и NVSwitch HGX H200 обеспечивает высочайшую производительность при выполнении различных прикладных рабочих нагрузок, включая обучение и вывод LLM для самых больших моделей, превышающих 175 миллиардов параметров.
Восьмиканальный HGX H200 обеспечивает более32 петафлопс вычислений FP8 для глубокого обучения и 1,1 ТБ суммарной памяти с высокой пропускной способностью для высочайшей производительности в генеративных приложениях ИИ и высокопроизводительных вычислениях.
В паре с процессорами NVIDIA Grace со сверхбыстрым интерфейсом NVLink-C2C H200 образует суперчип GH200 Grace Hopper с HBM3e - интегрированный модуль, предназначенный для работы с приложениями HPC и ИИ гигантского масштаба.
Ускорение ИИ с помощью полнофункционального ПО NVIDIA
Платформа ускоренных вычислений NVIDIA поддерживается мощными программными инструментами, которые позволяют разработчикам и предприятиям создавать и ускорять готовые к производству приложения от ИИ до HPC.
В их число входит пакет программ NVIDIA AI Enterprise для таких рабочих нагрузок, как речь, рекомендательные системы и гипермасштабные выводы.
Доступность
NVIDIA H200 будет доступен мировым производителям систем и поставщикам облачных услуг начиная со второго квартала 2024 года.
@Mao вот с такой штукой можно будет генерить и общаться в чат-боте, все на лету и оффлайн
И так можно. Тем более если использовать LCM
Не ну так то 13b модели на 12гб в 4bit режиме тоже на лету общаются. Хотя конечно покрутить на таком всякие здоровенные модели точно вкусно
Я даже придумать не могу для чего сколько может понадобиться, возможно там выше написано для чего, но я прям не вчитывалась. Но думаю этот монстр будет стоить как машина.
Алана Вейка потянет, я думаю
Комментарий недоступен
Блин, ты первее написал.