Обновленная информация о наших методах обеспечения безопасности
Новости

Обновленная информация о наших методах обеспечения безопасности OpenAI

SSC станет независимым комитетом Совета директоров по надзору под председательством Зико Колтера, который будет осуществлять надзор за важнейшими мерами безопасности, связанными с разработкой и внедрением модели.

Мы учредили Комитет по охране и безопастности для выработки рекомендаций по важнейшим решениям в области охраны и безопастности, поскольку модели OpenAI выходят на все новый уровень возможностей и продолжают решать сложные проблемы для людей по всему миру. В качестве одного из своих первоначальных мандатов Комитет по охране и безопас-ности провел 90-дневный обзор процессов и мер предосторожности, связанных с охраной и безопас-ностью, и вынес рекомендации всему Правлению.

После полного обзора Правления мы делимся рекомендациями Комитета по охране и безопас-ности по пяти ключевым областям, которые мы принимаем. Сюда входят усовершенствования, которые мы внесли в развитие наших практик в области управления и охраны.

  1. Создание независимого руководства для обеспечения безопасности
  2. Усиление мер безопасности
  3. Прозрачность нашей работы
  4. Сотрудничество с внешними организациями
  5. Объединение наших систем безопасности для разработки моделей и мониторинга

Безопасности и безопасности Комитет рассмотрел безопасности и безопасности критериев, что OpenAI, используемые для оценки OpenAI О1 по пригодности для запуска, а также результаты оценки безопасности в OpenAI О1. Мы стремимся постоянно совершенствовать наш подход к выпуску высокопроизводительных и безопасных моделей и ценим решающую роль, которую Комитет по охране и безопас-ности будет играть в формировании будущего OpenAI.

1. Создание независимого руководства для обеспечения безопасности

Комитет по охране и безопас-ности станет независимым надзорным комитетом Совета директоров, занимающимся вопросами охраны и безопас-ности, который возглавит Зико Колтер, директор департамента машинного обучения Школы компьютерных наук Университета Карнеги-Меллон, в состав которого войдут Адам Д’Анджело, соучредитель и генеральный директор Quora, генерал армии США в отставке Пол Накасоне, и Николь Селигман, бывший EVP и главный юрисконсульт Sony Corporation. ИТ-отдел будет осуществлять надзор, среди прочего, за процессами обеспечения безопасности, определяющими разработку и внедрение модели OpenAI.

Руководство компании проинформирует Комитет по охране и безопас-ности об оценках безопасности основных выпусков моделей, и он вместе с полным составом правления будет осуществлять надзор за запуском моделей, в том числе будет наделен полномочиями откладывать выпуск до тех пор, пока не будут решены проблемы безопасности. В рамках своей работы Комитет по охране и обеспечению безопасности и Правление рассмотрели оценку безопасности выпуска o1 и будут продолжать регулярно получать отчеты о технических оценках текущих и будущих моделей, а также отчеты о текущем мониторинге после выпуска. Комитет по охране и обеспечению безопасности также выиграет от регулярного взаимодействия с представителями групп охраны и обеспечения безопасности OpenAI. Для полного состава Правления также будут проводиться периодические брифинги по вопросам охраны и обеспечения безопасности.

2. Усиление мер безопасности

Кибербезопасность – важнейший компонент безопасности искусственного интеллекта, и мы были лидером в определении мер безопасности, которые необходимы для защиты продвинутого искусственного интеллекта. Мы продолжим применять риск-ориентированный подход к нашим мерам безопасности и совершенствовать наш подход по мере изменения модели угроз и профилей рисков наших моделей. Мы расширяем внутреннюю сегментацию информации, привлекаем дополнительный персонал для усиления круглосуточных групп безопасности и продолжаем инвестировать в текущие инициативы по повышению безопасности исследовательской инфраструктуры и продуктовой инфраструктуры OpenAI.

В рамках обзора Комитета по безопасности мы определили дополнительные возможности для отраслевого сотрудничества и обмена информацией для повышения безопасности индустрии искусственного интеллекта. Например, мы тщательно оцениваем развитие Центра обмена информацией и анализа (“ISAC”) для индустрии искусственного интеллекта, чтобы обеспечить обмен информацией об угрозах и кибербезопасности между организациями сектора искусственного интеллекта для повышения нашей коллективной устойчивости к киберугрозам.

3. Прозрачность нашей работы

Мы будем искать другие способы поделиться информацией и объяснить нашу работу по обеспечению безопасности. Мы уже давно публикуем системные карточки, в которых описываются возможности и риски наших моделей. Системная карта GPT-4o и системная карта o1-preview содержат исчерпывающую информацию о работе по обеспечению безопасности, проведенной перед выпуском каждой модели, включая результаты внешнего объединения red teaming и научных оценок пограничных рисков(открывается в новом окне) в рамках нашей Системы обеспечения готовности, а также обзор мер по снижению рисков, которые мы внедрили для решения ключевых проблем в областях риска.

4. Сотрудничество с внешними организациями

Мы будем изучать больше возможностей для независимого тестирования наших систем и будем продвигать общепромышленные стандарты безопасности. Например, мы уже развиваем новое сотрудничество со сторонними организациями по безопасности и неправительственными лабораториями для проведения независимых оценок безопасности моделей. Мы также работаем с государственными учреждениями над продвижением науки о безопасности искусственного интеллекта. Это включает в себя сотрудничество с Лос-Аламосской национальной лабораторией – одной из ведущих национальных лабораторий США — для изучения того, как ученые могут безопасно использовать искусственный интеллект в лабораторных условиях для продвижения биологических исследований. Кроме того, мы недавно достигли соглашений с Институтами безопасности искусственного интеллекта США и Великобритании о сотрудничестве в исследовании возникающих рисков безопасности искусственного интеллекта и стандартов для надежного искусственного интеллекта.

5. Объединение наших структур безопасности для разработки моделей и мониторинга

Обеспечение безопасности наших моделей требует работы многих команд по всей организации. По мере нашего роста и усложнения нашей работы мы развиваем процессы и практики запуска наших моделей, чтобы создать интегрированную систему обеспечения безопасности с четко определенными критериями успеха при запуске моделей. Эта структура будет основана на оценках рисков и одобрена Комитетом по охране и безопас-ности. По мере повышения производительности моделей эта структура будет адаптироваться для управления возросшей сложностью и рисками. Чтобы начать внедрение платформы, мы реорганизовали команды по исследованиям, безопасности и политике для укрепления сотрудничества и обеспечения более тесных связей по всей компании.

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *