Вот что AWS рассказала о своей стратегии генерации ИИ на re: Invent 2023
Новости

Вот что AWS рассказала о своей стратегии генерации ИИ на re: Invent 2023

Генеральный директор AWS Адам Селипски и другие топ-менеджеры на ежегодной конференции компании re: Invent рассказали об обновлениях и новых продуктах, направленных на улучшение предложений Microsoft, Oracle, Google и IBM.

На ежегодной конференции AWS re: Invent на этой неделе генеральный директор Адам Селипски и другие топ-менеджеры анонсировали новые сервисы и обновления, призванные привлечь растущий интерес предприятий к системам с генеративным ИИ и потеснить конкурентов, включая Microsoft, Oracle, Google и IBM.

AWS, крупнейший поставщик облачных услуг с точки зрения доли рынка, стремится извлечь выгоду из растущего интереса к генеративному ИИ. Согласно отчету исследовательской компании IDC, предприятия по всему миру инвестируют 16 миллиардов долларов в генеративный ИИ и связанные с ним технологии в 2023 году.

Ожидается, что эти расходы, которые включают программное обеспечение generative AI, а также сопутствующее инфраструктурное оборудование, ИТ и бизнес-сервисы, достигнут 143 миллиардов долларов в 2027 году при совокупном годовом темпе роста (CAGR) 73,3%.

Этот экспоненциальный рост, по данным IDC, почти в 13 раз превышает средний показатель мировых расходов на ИТ за тот же период.

Как и большинство ее конкурентов, в частности, Oracle, Селипски рассказал, что стратегия генерации AWS разделена на три уровня: первый, или инфраструктурный, уровень для обучения или разработки больших языковых моделей (LLM); средний уровень, который состоит из базовых больших языковых моделей, необходимых для создания приложений; и третий уровень, который включает приложения, использующие два других уровня.

AWS совершенствует инфраструктуру для генеративного ИИ

Поставщик облачных сервисов, который с прошлого года добавляет инфраструктурные возможности и чипы для поддержки высокопроизводительных вычислений с повышенной энергоэффективностью, на этой неделе анонсировал последние версии своих чипов Graviton и Trainium.

Процессор Graviton4, по данным AWS, обеспечивает на 30% лучшую вычислительную производительность, на 50% больше ядер и на 75% большую пропускную способность памяти, чем процессоры Graviton3 текущего поколения.

С другой стороны, Trainium2 предназначен для обеспечения до четырех раз более быстрого обучения, чем чипы Trainium первого поколения.

Эти чипы можно будет развертывать в ультракластерах EC2, насчитывающих до 100 000 чипов, что позволит обучать базовые модели (FMM) и LLM за меньшее время, чем это требовалось до сих пор, при одновременном повышении энергоэффективности в два раза по сравнению с предыдущим поколением, говорится в сообщении компании.

Конкуренты Microsoft, Oracle, Google и IBM создают собственные чипы для высокопроизводительных вычислений, включая рабочие нагрузки с генеративным ИИ.

В то время как Microsoft недавно выпустила свой ускоритель искусственного интеллекта Maia и процессоры Azure Cobalt для рабочих нагрузок по обучению моделей, Oracle заключила партнерство с Ampere для производства собственных чипов, таких как Oracle Ampere A1. Ранее Oracle использовала чипы Graviton для своей инфраструктуры искусственного интеллекта. Подразделение облачных вычислений Google Cloud производит собственные чипы искусственного интеллекта в виде тензорных процессоров (TPU), а их новейшим чипом является TPUv5e, которые можно комбинировать с помощью мультиспиральной технологии. IBM через свое исследовательское подразделение также работает над чипом, получившим название Northpole, который может эффективно поддерживать генеративные рабочие нагрузки.

На re: Invent AWS также расширила партнерство с Nvidia, включая поддержку DGX Cloud, нового проекта с графическим процессором Ceiba и новых инстансов для поддержки рабочих нагрузок с генеративным ИИ.

AWS заявила, что на ней будет размещен облачный кластер графических процессоров Nvidia DGX Cloud, который может ускорить обучение генеративного ИИ и LLM с параметрами, превышающими 1 трлн параметров. OpenAI также использовала облако DGX для обучения LLM, лежащего в основе ChatGPT.

Ранее в феврале Nvidia заявила, что сделает облако DGX доступным через Oracle Cloud, Microsoft Azure, Google Cloud Platform и других облачных провайдеров. В марте Oracle объявила о поддержке DGX Cloud, за ней последовала Microsoft.

Официальные представители re: Invent также объявили, что новые экземпляры Amazon EC2 G6e с графическими процессорами Nvidia L40S и экземпляры G6 с графическими процессорами L4 находятся в стадии разработки.

Графические процессоры L4 уменьшены по сравнению с Hopper H100, но обеспечивают гораздо большую энергоэффективность. Эти новые экземпляры предназначены для стартапов, предприятий и исследователей, желающих поэкспериментировать с искусственным интеллектом.

Nvidia также поделилась планами интегрировать свой микросервис NeMo Retriever в AWS, чтобы помочь пользователям в разработке инструментов генерации искусственного интеллекта, таких как чат-боты. NeMo Retriever – это микросервис генерации искусственного интеллекта, который позволяет предприятиям подключать пользовательские LLM к корпоративным данным, чтобы компания могла генерировать правильные ответы искусственного интеллекта на основе своих собственных данных.

Кроме того, AWS заявила, что станет первым облачным провайдером, который перенесет в облако суперчипы Grace Hopper от Nvidia GH200.

Многоузловая платформа Nvidia GH200 NVL32 соединяет 32 суперчипа Grace Hopper через межсоединения Nvidia NVLink и NVSwitch. Платформа будет доступна в инстансах Amazon Elastic Compute Cloud (EC2), подключенных с помощью сетевой виртуализации Amazon (AWS Nitro System) и гипермасштабируемой кластеризации (Amazon EC2 UltraClusters).

Новые базовые модели, предоставляющие больше возможностей для создания приложений

Чтобы предоставить больше базовых моделей и упростить создание приложений, AWS представила обновления существующих базовых моделей в рамках своего сервиса по созданию приложений с генеративным ИИ, Amazon Bedrock.

Обновленные модели, добавленные в Bedrock, включают Claude 2.1 от Anthropic и Meta Llama 2 70B, обе из которых стали общедоступными. Amazon также добавила в Bedrock свои собственные модели Titan Text Lite и Titan Text Express Foundation.

Кроме того, поставщик облачных сервисов добавил модель предварительного просмотра, Amazon Titan Image Generator, в сервис создания приложений для искусственного интеллекта.

Базовые модели, которые в настоящее время доступны в Bedrock, включают модели большого языка (LLM) из конюшен AI21 Labs, Cohere Command, мета-, антропный и стабильный ИИ.

Конкуренты Microsoft, Oracle, Google и IBM также предлагают различные модели foundation, включая проприетарные модели и модели с открытым исходным кодом. В то время как Microsoft предлагает Llama 2 от Meta(запрещенная в РФ) наряду с GPT-моделями OpenAI, Google предлагает собственные модели, такие как PaLM 2, Codey, Imagen и Chirp. Oracle, с другой стороны, предлагает модели от Cohere.

AWS также выпустила новую функцию в Bedrock, получившую название Model Evaluation, которая позволяет предприятиям оценивать, сравнивать и выбирать наилучшую базовую модель для своего варианта использования и бизнес-потребностей.

Хотя и не совсем похожие, модели оценки может быть по сравнению с Google вершины Ай модель сада, которая является хранилищем основу модели от компании Google и ее партнерам. Служба OpenAI от Microsoft Azure также предлагает возможность выбора больших языковых моделей. LLM также можно найти в Azure Marketplace.

Amazon Bedrock и SageMaker получают новые функции для упрощения создания приложений

AWS обновила Amazon Bedrock и SageMaker, чтобы не только помочь обучать модели, но и ускорить разработку приложений.

Эти обновления включают такие функции, как расширенная генерация поиска (RAG), возможности точной настройки LLM и возможность предварительной подготовки моделей Titan Text Lite и Titan Text Express из Bedrock. AWS также представила SageMaker HyperPod и SageMaker Inference, которые помогают масштабировать LLM и снижать затраты на развертывание искусственного интеллекта соответственно.

Vertex AI отGoogle, IBM Watsonx.ai Azure OpenAI от Microsoft и некоторые функции Oracle generative AI service также предоставляют аналогичные функции Amazon Bedrock, особенно позволяя предприятиям настраивать модели и возможности RAG.

Кроме того, Generative AI Studio от Google, представляющую собой малокодированный набор для настройки, развертывания и мониторинга базовых моделей, можно сравнить с AWS SageMaker Canvas, еще одной малокодированной платформой для бизнес-аналитиков, которая была обновлена на этой неделе, чтобы облегчить генерацию моделей.

У каждого из поставщиков облачных сервисов, включая AWS, также есть библиотеки программного обеспечения и сервисы, такие как Guardrails для Amazon Bedrock, позволяющие предприятиям соответствовать лучшим практикам в области обработки данных и обучения моделям.

Amazon Q, ответ AWS второму пилоту Microsoft, управляемому GPT

Во вторник Селипски представил премьеру “звезды конференции re: Invent 2023” облачного гиганта: Amazon Q, ответа компании на “генеративный искусственный интеллект” второго пилота Microsoft, работающего на основе GPT-технологий. Ассистент второго пилота Microsoft, работающий на основе “генеративного искусственного интеллекта”.

Объявление Селипски о Q напомнило выступление генерального директора Microsoft Сатьи Наделлы на конференции Ignite and Build, где он анонсировал несколько интеграций и модификаций Copilot для широкого спектра проприетарных продуктов, включая Office 365 и Dynamics 365.

Amazon Q может использоваться предприятиями для выполнения различных функций, включая разработку приложенийпреобразование кода, генерацию бизнес-аналитики, выполнение функций помощника по созданию искусственного интеллекта для бизнес-приложений и помощь агентам службы поддержки клиентов с помощью предложения Amazon Connect.

Конкуренты не слишком отстают. В августе Google также добавила своего помощника на основе искусственного интеллекта Duet AI к большинству своих облачных сервисов, включая аналитику данных, базы данных, управление инфраструктурой и приложениями.

Аналогичным образом, управляемый сервис Oracle generative AI service также позволяет предприятиям интегрировать интерфейсы generative AI на основе LLM в свои приложения через API, сообщила компания, добавив, что она добавит собственного помощника generative AI в свои облачные сервисы и NetSuite.

Другие обновления, связанные с генеративным искусственным интеллектом, на re: Invent включают обновленную поддержку векторных баз данных для Amazon Bedrock. Эти базы данных включают Amazon Aurora и MongoDB. Другие поддерживаемые базы данных включают Pinecone, Redis Enterprise Cloud и векторный движок для бессерверного поиска Amazon OpenSearch.

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *