Новая компания HyperGAI, занимающаяся мультимодальным генеративным ИИ, выходит из скрытого режима: выпускает новаторскую мультимодальную лицензию LLM с открытым исходным кодом
Новости

Новая компания HyperGAI, занимающаяся мультимодальным генеративным ИИ, выходит из скрытого режима: выпускает новаторскую мультимодальную лицензию LLM с открытым исходным кодом

СИНГАПУР, 19 марта 2024 г. / PRNewswire / — HyperGAI, исследовательская компания в области прикладного ИИ, внедряющая инновации в технологии и решения для мультимодального генеративного ИИ, выходит из скрытого режима сегодня и выпускает новую модель с открытым мультимодальным языком, которая является одной из лучших в своем классе по своим размерам на сегодняшний день и будет доступна общественности через открытый исходный код.

Последние несколько месяцев компания работает в режиме stealth, постепенно создавая собственные мультимодальные базовые модели и стремясь разработать ведущую мультимодальную генеративную систему ИИ, которая эмулирует цифровой мозг для интеллектуальных машин hyper general. HyperGAI считает, что настоящий общий интеллект требует большего, чем просто понимание текста на основе.

“Наша цель – разработать мультимодальную генеративную ИИ-систему “полного стека”, которая может понимать все виды входных данных и генерировать любой тип выходных данных, которая становится цифровым мозгом для потребительских и корпоративных продуктов, которые позволяют людям раскрыть свой творческий потенциал и повысить производительность на рабочем месте”, – сказал Стивен Хой, доктор философии, основатель и генеральный директор HyperGAI. “В отличие от других компаний, занимающихся искусственным интеллектом, специализирующихся на приложениях, мы отличаемся нашим подходом к разработке базовых моделей мультимодального искусственного интеллекта, и мы будем использовать это для продолжения выпуска прорывных продуктов и решений в области искусственного интеллекта “.

Компания приближается к своей цели в два этапа. Первый включает в себя создание двух типов мультимодальных базовых моделей:

  • Мультимодальные LLM-модели, которые понимают несколько типов сенсорных сигналов, включая текст, изображения, видео; и
  • Модели мультимодального распространения, которые используют способность multimodal LLM к пониманию для обучения моделям мультимодального генерации для создания персонализированного контента, включая фотографии, видео и многое другое.

На втором этапе основное внимание будет сосредоточено на построении комплексной мультимодальной генеративной системы ИИ путем интеграции обоих типов мультимодальных базовых моделей в целостную структуру, которая станет ключом к достижению цели общего искусственного интеллекта.

Компания считает, что открытый подход к продвижению мультимодального генеративного ИИ необходим, и это будет более эффективным, устойчивым и ответственным для ускорения революции передовых технологий общего искусственного интеллекта за счет совместных усилий сообщества.

В рамках продолжающегося прогресса HyperGAI также выпускает HPT (Hyper-Pretrained Transformers), свое новое семейство наиболее мощных мультимодальных моделей большого языка (LLM) для своего размера на сегодняшний день. Интересно отметить, что теперь компания открывает доступ к своей эффективной модели HPT Air как для исследований, так и для коммерческого использования.

HyperGAI была основана группой дальновидных лидеров, обладающих более чем 20-летним опытом в области мультимодального ИИ, компьютерного зрения, обработки естественного языка и глубокого обучения, и которые вместе опубликовали более 300 технических статей.

О HyperGAI
HyperGAI – компания, занимающаяся прикладными исследованиями в области искусственного интеллекта, внедряющая инновации в технологии и решения для мультимодального генеративного ИИ. Наше видение – быть ведущим поставщиком ИИ для мультимодальных генеративных решений (GenAI), которые позволяют людям раскрыть свой творческий потенциал и повысить производительность на рабочем месте. Для получения дополнительной информации посетите: HyperGAI.com.

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *