Документ “LLM AI Security and Governance Checklist” представляет собой всестороннее руководство, разработанное для обеспечения безопасности и управления проектами искусственного интеллекта, особенно крупными языковыми моделями (LLM). Он ориентирован на решение уникальных вызовов безопасности, связанных с развитием и внедрением технологий искусственного интеллекта, подчеркивая необходимость ответственного и доверительного использования ИИ.
Документ разделен на четыре основные секции:
- Обзор (Overview) – представляет цели и ключевые принципы безопасного и ответственного использования ИИ.
- Определение стратегии LLM (Determining LLM Strategy) – обсуждает подходы к разработке стратегии развертывания LLM.
- Чек-лист (Checklist) – содержит детальный список рекомендаций и лучших практик, охватывающий широкий спектр аспектов безопасности, в том числе управление рисками, моделирование угроз, обучение и приватность данных.
- Ресурсы (Resources) – предлагает дополнительные материалы и ссылки для дальнейшего изучения и применения.
Определение стратегии LLM (Determining LLM Strategy)
Развертывание стратегии
- Общий контекст: Расширение применения больших языковых моделей (LLM) повышает внимание к всем системам ИИ/ML, используемым в бизнес-операциях, включая как генеративный ИИ, так и традиционные предикативные системы ИИ/ML. Это увеличивает осознание потенциальных рисков, включая целенаправленные атаки и управленческие или правовые проблемы, которые могли быть ранее игнорированы.
- Угрозы и вызовы: Наиболее непосредственной и вредной угрозой являются атакующие, цели которых варьируются от финансовой выгоды до шпионажа, стремящиеся к краже критической информации, нарушению операций и подрыву доверия. Кроме того, “теневой ИИ”, используемый сотрудниками без одобрения, представляет собой значительный неприятельский риск, включая использование неодобренных онлайн инструментов ИИ, небезопасных браузерных плагинов и сторонних приложений.
Стратегия развертывания
- Варианты развертывания: Стратегии могут варьироваться от использования общедоступных приложений до обучения собственных моделей на частных данных. При выборе стратегии необходимо учитывать чувствительность использования, необходимые возможности и доступные ресурсы для достижения правильного баланса между удобством и контролем.
Угрозы LLM
- Категории угроз LLM: Угрозы LLM включают как уникальные, так и знакомые проблемы, такие как известный перечень материалов программного обеспечения (SBoM), защита от потери данных (DLP) и управление доступом. Генеративный ИИ (GenAI) усиливает способности атакующих, увеличивая эффективность, возможности и результативность атак.
Интеграция с существующими практиками
- Принципы безопасности: Возможности LLM вводят новый тип атак и поверхности атаки, включая уязвимости, связанные с инъекцией команд, небезопасным дизайном плагинов и удаленным выполнением кода. Рекомендуется включение профессионалов, знакомых с NLP, NLU, глубоким обучением и недавно с LLM и GenAI, в команды кибербезопасности и разработки для разработки инновационных анализов и решений для новых вызовов.
Риск и управление уязвимостями
- Таксономия уязвимостей и смягчение последствий: Системы классификации уязвимостей и обмена информацией о угрозах, такие как OVAL, STIX, CVE и CWE, развиваются для мониторинга и оповещения о специфических для LLM и предикативных моделей уязвимостях и угрозах. Ожидается, что организации будут опираться на эти установленные и признанные стандарты для классификации уязвимостей и обмена киберразведкой.
Этот раздел подчеркивает критическую необходимость оценки и установления комплексных политик, стандартов управления, протоколов безопасности, мер конфиденциальности и стандартов ответственности для обеспечения безопасного и этичного выравнивания этих технологий с бизнес-процессами.
Чек-лист (Checklist)
Чек-лист включает в себя детальный перечень рекомендаций и наилучших практик, охватывающих широкий спектр аспектов безопасности и управления при использовании крупных языковых моделей (LLM) и искусственного интеллекта в целом. Ключевые элементы чек-листа:
1. Адверсарный риск (Adversarial Risk)
- Анализ конкурентов и их инвестиций в ИИ.
- Обновление плана реагирования на инциденты и плейбуков для усиленных GenAI атак и специфичных инцидентов ИИ/ML.
2. Моделирование угроз (Threat Modeling)
- Выявление и смягчение рисков перед развертыванием LLM.
- Защита данных и приватности.
- Обеспечение безопасного и соответствующего интегрирования в бизнес.
3. Инвентаризация активов ИИ (AI Asset Inventory)
- Каталогизация существующих сервисов ИИ и определение владельцев.
- Включение компонентов ИИ в Счет-фактуру программного обеспечения (SBoM).
4. Обучение безопасности ИИ и приватности (AI Security and Privacy Training)
- Обучение всех пользователей этике, ответственности и юридическим вопросам, связанным с ИИ.
5. Определение бизнес-случаев (Establish Business Cases)
- Оценка рисков и выгод, анализ и испытание возврата инвестиций для предложенных решений ИИ.
6. Управление (Governance)
- Установление организационной диаграммы AI RACI.
- Определение и назначение ответственности за риск ИИ и управление в организации.
7. Юридические аспекты (Legal)
- Проверка и обновление условий использования продукта и соглашений EULA с учетом GenAI.
8. Регулирование (Regulatory)
- Определение требований соответствия специфичных для страны, штата или других государственных норм и правил.
9. Использование или внедрение решений на основе LLM (Using or Implementing Large Language Model Solutions)
- Моделирование угроз для компонентов и архитектуры LLM.
- Обеспечение безопасности данных и контроля доступа.
10. Тестирование, оценка, верификация и валидация (TEVV)
- Установление непрерывного процесса TEVV на протяжении всего жизненного цикла модели ИИ.
11. Карточки моделей и карточки рисков (Model Cards and Risk Cards)
- Повышение прозрачности, ответственности и этичного развертывания LLM.
12. RAG: Оптимизация крупной языковой модели (Large Language Model Optimization)
- Использование Retrieval-Augmented Generation (RAG) для эффективной оптимизации и дополнения возможностей LLM.
13. Краснокомандные упражнения ИИ (AI Red Teaming)
- Имитация адверсарных атак для проверки наличия уязвимостей, которые могут быть использованы атакующими.
Этот чек-лист является фундаментальным инструментом для организаций, стремящихся безопасно внедрять и использовать технологии ИИ, обеспечивая при этом соответствие лучшим практикам управления, безопасности и приватности.
Ресурсы
OWASP Ресурсы
- OWASP Top 10 для приложений крупных языковых моделей: Охватывает основные аспекты безопасности и управления для приложений, использующих крупные языковые модели, предоставляя практические рекомендации и лучшие практики.
- OWASP SAMM (Software Assurance Maturity Model): Предлагает эффективный и измеримый метод для анализа и улучшения жизненного цикла разработки безопасного программного обеспечения.
- OWASP AI Security and Privacy Guide: Комплексный список наиболее важных аспектов безопасности и конфиденциальности ИИ, предназначенный для разработчиков, исследователей в области безопасности и консультантов.
- OWASP AI Exchange: Целью является соединение специалистов по всему миру для обмена в области безопасности ИИ, способствуя согласованию стандартов и сотрудничеству.
Ресурсы MITRE
- MITRE ATT&CK (Adversarial Tactics, Techniques, and Common Knowledge): База знаний тактик и техник противников, основанная на реальных наблюдениях, которая помогает организациям оценить эффективность своих мер безопасности.
- MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems): База знаний, основанная на реальных примерах атак на системы машинного обучения, предоставляющая тактики и процедуры, дополняющие ATT&CK.
Репозитории уязвимостей ИИ
- AI Incident Database: Репозиторий статей о случаях, когда ИИ терпел неудачу в реальных приложениях.
- OECD AI Incidents Monitor (AIM): Предлагает доступную отправную точку для понимания ландшафта проблем, связанных с ИИ.
Руководство по закупке ИИ
- World Economic Forum: Adopting AI Responsibly: Guidelines for Procurement of AI Solutions by the Private Sector: Стандартные критерии оценки и ориентиры для закупки систем ИИ, предоставляющие организациям базовый набор рассмотрений для процесса закупки от начала до конца.
Эти ресурсы предоставляют организациям инструменты и знания, необходимые для разработки, внедрения и поддержки безопасных и этических решений на основе ИИ. Они включают в себя всесторонние руководства, базы знаний и рекомендации, которые помогают организациям навигировать в сложной среде безопасности ИИ и обеспечивать защиту от угроз, связанных с использованием крупных языковых моделей и других технологий ИИ.
Выводы и заключение
В заключительной части статьи стоит подчеркнуть основные выводы, сделанные на основе анализа предоставленного чек-листа, и подвести итоги значимости этих рекомендаций для организаций, стремящихся безопасно и эффективно интегрировать ИИ в свои операции.
- Значимость комплексного подхода: Анализ чек-листа подчеркивает необходимость комплексного подхода к безопасности и управлению ИИ, включая тщательное планирование, стратегическую разработку политик, обучение сотрудников и постоянный мониторинг угроз.
- Превентивные меры: Рекомендации выделяют важность превентивных мер для предотвращения угроз и минимизации рисков, связанных с ИИ, включая адверсарные атаки, неправомерное использование данных и нарушения приватности.
- Роль образования и осведомленности: Обучение и повышение осведомленности сотрудников о принципах безопасности и этическом использовании ИИ являются критически важными для предотвращения “теневого ИИ” и обеспечения ответственного использования технологий.
- Важность регулярного обновления и адаптации: Технологии ИИ быстро развиваются, что требует от организаций регулярного обновления своих подходов к безопасности и управлению, а также адаптации к новым угрозам и вызовам.
- Сотрудничество и обмен знаниями: Раздел “Ресурсы” подчеркивает значение сотрудничества между организациями, отраслевыми группами и стандартизационными органами для обмена знаниями, лучшими практиками и разработкой общих стандартов безопасности.
В целом, документ “Обеспечение безопасности и управления крупными языковыми моделями: Полный чек-лист по безопасности и управлению ИИ” служит важным руководством для организаций, предоставляя структурированный подход к безопасному и эффективному внедрению ИИ. Эти рекомендации помогают создать безопасную и устойчивую среду для использования ИИ, способствуя инновациям и защите интересов как организаций, так и их клиентов.