AWS и NVIDIA: Сотрудничество в области суперкомпьютеров и генеративного ИИ

Amazon Web Services, Inc. (AWS) и NVIDIA объявили об расширении своего стратегического сотрудничества для предоставления клиентам наиболее передовых инфраструктурных решений, программного обеспечения и сервисов в области генеративного искусственного интеллекта.

AWS стремится выделиться как облачный провайдер для решений, связанных с ИИ, в то время как чипы NVIDIA широко используются в разработке услуг генеративного ИИ.

В рамках расширенных усилий обе компании объединят технологии NVIDIA и AWS для предложения обучения фундаментальных моделей и создания приложений генеративного ИИ. Это включает в себя работу по разработке и проектированию самого быстрого в мире суперкомпьютера с ИИ на базе GPU и развертыванию программного обеспечения для ускорения разработки технологий генеративного ИИ.

AWS предложит первый в облаке суперкомпьютер ИИ с NVIDIA Grace Hopper Superchip и масштабируемостью AWS UltraCluster.

Также во время своей конференции Reinvent в Лас-Вегасе облачное подразделение AWS объявило о своем новом искусственном интеллекте Trainium2 и универсальном процессоре Graviton4.

Адам Селипски, исполнительный директор Amazon.com Inc. Web Services (AWS), выступает на Блумбергском технологическом саммите в Сан-Франциско, Калифорния, США, в четверг, 22 июня 2023 года. Фотограф: Дэвид Пол Моррис/Bloomberg via Getty Images.

“Мы сотрудничаем с NVIDIA уже более 13 лет, начиная с первого в мире облачного экземпляра с GPU”, – сказал Адам Селипски, генеральный директор AWS. “Сегодня мы предлагаем широчайший спектр решений NVIDIA GPU для рабочих нагрузок, включая графику, игры, высокопроизводительные вычисления, машинное обучение и теперь генеративный ИИ. Мы продолжаем инновации с NVIDIA, чтобы сделать AWS лучшим местом для работы с GPU, объединяя новейшие суперчипы NVIDIA Grace Hopper с мощным сетевым оборудованием AWS EFA, гипермасштабным кластеризацией EC2 UltraClusters и передовыми возможностями виртуализации Nitro”.

Джен-Сун Хуанг, генеральный директор Nvidia Corp., демонстрирует процессор Titan C и видеокарту GeForce GTX Titan X во время Конференции по графическим процессорам (GPU Technology Conference) в Сан-Хосе, Калифорния. Процессор Titan X использует видеокарту GeForce GTX Titan X и оснащен графическим процессором GM200. (Фото: Ким Кулиш/Corbis via Getty Images)

“Генеративный ИИ трансформирует облачные рабочие нагрузки и делает ускоренные вычисления основой разнообразного создания контента”, – сказал Дженсен Хуан, основатель и генеральный директор NVIDIA. “Руководствуясь общей миссией по предоставлению экономически эффективного, передового генеративного ИИ каждому клиенту, NVIDIA и AWS сотрудничают на всех уровнях вычислительного стека, от инфраструктуры ИИ и ускоряющих библиотек до фундаментальных моделей и услуг генеративного ИИ.”

Более конкретно, две компании описали расширенное сотрудничество следующим образом:

  • AWS станет первым облачным провайдером, который предложит чипы NVIDIA GH200 Grace Hopper Superchips с новой многонодовой технологией NVLink в облаке. Многонодовая платформа NVIDIA GH200 NVL32 соединяет 32 суперчипа Grace Hopper с технологиями NVIDIA NVLink и NVSwitch в одном экземпляре. Платформа будет доступна на экземплярах Amazon Elastic Compute Cloud (Amazon EC2), подключенных к мощной сети Amazon (EFA), поддерживаемой передовой виртуализацией (AWS Nitro System) и гипермасштабной кластеризацией (Amazon EC2 UltraClusters), позволяя совместным клиентам масштабировать до тысяч GH200 Superchips.
  • NVIDIA и AWS будут сотрудничать для размещения NVIDIA DGX Cloud, облачного сервиса обучения ИИ NVIDIA, на AWS. Это будет первый DGX Cloud с GH200 NVL32, предоставляющий разработчикам самую большую общую память в одном экземпляре. DGX Cloud на AWS ускорит обучение передовых генеративных ИИ и крупномасштабных языковых моделей, которые могут достигать более 1 триллиона параметров.
  • NVIDIA и AWS сотрудничают над проектом Ceiba для проектирования самого быстрого в мире суперкомпьютера с ИИ на базе GPU – масштабной системы с GH200 NVL32 и межсоединением Amazon EFA, размещенной AWS для собственной команды исследований и разработок NVIDIA. Этот первый в своем роде суперкомпьютер, оснащенный 16 384 суперчипами NVIDIA GH200 и способный обрабатывать 65 эксафлопс ИИ, будет использоваться NVIDIA для продвижения своей следующей волны инноваций в области генеративного ИИ.
  • AWS представит три дополнительных экземпляра Amazon EC2: экземпляры P5e, работающие на базе GPU NVIDIA H200 Tensor Core, для масштабных и передовых работ в области генеративного ИИ и высокопроизводительных вычислений; а также экземпляры G6 и G6e, работающие на базе GPU NVIDIA L4 и NVIDIA L40S соответственно, для широкого спектра приложений, таких как тонкая настройка ИИ, вывод, графика и видеоработы. Экземпляры G6e особенно подходят для разработки 3D рабочих процессов, цифровых двойников и других приложений с использованием NVIDIA Omniverse, платформы для соединения и создания приложений, работающих с генеративным ИИ в 3D.
  • Кроме того,NVIDIA объявила о запуске нового программного обеспечения на AWS для ускорения разработки генеративного ИИ. Микросервис NVIDIA NeMo Retriever предлагает новые инструменты для создания высокоточных чат-ботов и инструментов для суммирования с помощью ускоренного семантического поиска. NVIDIA BioNeMo, уже доступный на Amazon SageMaker и планируемый к предложению на AWS на NVIDIA DGX Cloud, позволяет фармацевтическим компаниям ускорить открытие лекарств, упрощая и ускоряя обучение моделей на собственных данных. Компании заявили, что программное обеспечение NVIDIA на AWS помогает Amazon внедрять новые инновации в свои услуги и операции. AWS использует фреймворк NVIDIA NeMo для обучения избранных следующего поколения Amazon Titan LLM. Amazon Robotics начала использовать NVIDIA Omniverse Isaac для создания цифровых двойников с целью автоматизации, оптимизации и планирования своих автономных складов в виртуальной среде перед их внедрением в реальный мир.

Источник новости: https://tkt1957.com/aws-nvidia-ai-partnership/