Американская индустрия ИИ готовится к новым требованиям: предложение BIS об обязательной отчётности по “двойного назначения” моделям ИИ и вычислительным кластерам
Новости

Американская индустрия ИИ готовится к новым требованиям: предложение BIS об обязательной отчётности по “двойного назначения” моделям ИИ и вычислительным кластерам

11 сентября 2024 года Бюро промышленности и безопасности Министерства торговли США (BIS) предложило новый нормативный акт, который обяжет американские компании подавать регулярные отчёты о своей деятельности, связанной с разработкой или приобретением моделей искусственного интеллекта (ИИ) двойного назначения и вычислительных кластеров. Это предложение стало одной из мер по выполнению положений исполнительного указа 14110, подписанного в октябре 2023 года. Документ призван обеспечить безопасную и надёжную разработку ИИ для защиты национальной безопасности.

Новые требования в сфере искусственного интеллекта

Согласно предложению, все компании и физические лица в США, которые разрабатывают или приобретают ИИ-модели с двойным назначением, должны будут ежеквартально подавать отчёты в BIS, а также предоставлять ответы на запросы ведомства по ряду вопросов, касающихся их деятельности. Основное внимание уделяется моделям ИИ, которые могут использоваться как для гражданских, так и для военных целей, что вызывает особую озабоченность по вопросам национальной безопасности.

Одним из ключевых аспектов предложения является обязательная отчетность для тех, кто проводит обучение ИИ-моделей с использованием вычислительных кластеров, выполняющих более 10^26 вычислительных операций или развивает кластеры с пропускной способностью выше 300 Гбит/с и вычислительной мощностью свыше 10^20 операций в секунду.

Условия и параметры отчётности

В документе подчёркивается, что отчёты должны быть как ретроспективными, так и перспективными. Это означает, что компании будут обязаны предоставлять информацию как о деятельности за предыдущий квартал, так и о планах на следующие два квартала. Помимо основной отчётности, BIS оставляет за собой право направлять дополнительные вопросы, на которые компании должны будут ответить в течение 30 календарных дней.

Основные темы, которые могут затрагиваться в запросах BIS, включают:

  • Текущая или планируемая разработка и обучение моделей ИИ двойного назначения.
  • Вопросы, касающиеся владения и защиты «весов модели» (model weights) этих ИИ.
  • Результаты тестирования моделей на уязвимости и недостатки (так называемое “красное тестирование” или red-teaming).
  • Безопасность и надёжность моделей ИИ в контексте национальной безопасности.

Особое внимание уделяется “фундаментальным моделям двойного назначения”, которые могут применяться в широком спектре задач и содержат десятки миллиардов параметров. Подобные модели могут быть использованы для автоматизированного обнаружения киберуязвимостей или даже для создания оружия массового поражения, что особенно беспокоит правительство США.

Конфиденциальность и защита информации

Все данные, которые будут переданы BIS в рамках этих требований, будут строго конфиденциальными и защищены от разглашения. Это должно снизить опасения компаний по поводу утечки коммерческой информации.

Возможные последствия

Предлагаемое правило может стать основой для будущего ужесточения экспортного контроля, особенно для моделей ИИ, которые могут использоваться как для гражданских, так и для военных нужд. На данный момент экспортные ограничения в основном касаются аппаратного обеспечения, но собранная информация может привести к ужесточению контроля и на уровне программных решений.

Как и другие меры, принятые в последние годы, предложение BIS направлено на обеспечение баланса между необходимостью регулирования и развитием технологий, которые будут играть ключевую роль в оборонной сфере США. Такие меры обеспечат дополнительный контроль за распространением передовых технологий в странах, представляющих угрозу национальной безопасности.

Заключение

Поскольку ИИ становится всё более важным элементом как в гражданских, так и в военных областях, предложение BIS представляет собой очередной шаг к усилению контроля над разработками ИИ двойного назначения в США. В условиях, когда страны борются за лидерство в области технологий, контроль за экспортом и разработками ИИ станет одним из ключевых аспектов национальной безопасности.

Источник

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *