При всем ажиотаже вокруг ChatGPT, почему так много компаний, включая Apple, Amazon, Verizon, JP Morgan Chase, Deutsche Bank, Northrup Grumman, Samsung и Accenture, запретили его использование? Это нежелание в первую очередь связано с опасениями по поводу развертывания внешних больших языковых моделей (LLM), таких как ChatGPT, что может привести к передаче и хранению конфиденциальных данных за пределами безопасной среды предприятия.
Эффективность генеративного ИИ на предприятии зависит от способности успешно обучать Большую языковую модель (LLM) на собственных данных компании, охватывающих все, от электронных писем до финансовых отчетов. Это специализированное обучение гарантирует, что разговоры с ИИ будут более точными и актуальными. Однако частный характер корпоративных данных и необходимость строгого соблюдения конфиденциальности данных, управления и нормативных требований создают значительные проблемы. Неправильное управление может привести к дорогостоящим последствиям, таким как утечка данных и ущерб бренду.
Пять основных причин, подчеркивающих неподготовленность ChatGPT к корпоративному использованию, следующие:
- Точность: Для достижения точных результатов крайне важно точно настроить модели искусственного интеллекта с учетом специфики бизнеса. Однако OpenAI в настоящее время не предоставляет способа прямого обучения ChatGPT с такими данными. Пользователи должны разрабатывать свои собственные пары быстрого завершения и обучать их работе с изолированной моделью GPT-3.5, которая не является общедоступной для других клиентов и не используется для обучения других моделей. Данные для точной настройки должны быть надлежащим образом классифицированы, подготовлены, помечены и, возможно, неидентифицированы, если они конфиденциальны, и все это перед использованием. Данные, загруженные для точной настройки, хранятся OpenAI бессрочно, пока клиент не удалит файлы.(Фото / Shutterstock)
- Прозрачность: В области искусственного интеллекта обычно поддерживается высокий стандарт открытости для обучения и совершенствования. Тем не менее, с выпуском GPT-4, OpenAI решила сделать свой исходный код частным и не раскрывать технические детали для экспертной оценки. Отсутствие прозрачности мешает исследователям и специалистам по обработке данных проверять и валидировать результаты, создавая проблему для предприятий, которым требуется полная прозрачность и доступ к открытому исходному коду для тщательной оценки.
- Конфиденциальность данных потребителей: ChatGPT обеспечивает конфиденциальность данных потребителей с помощью Соглашения о конфиденциальности данных (DPA) для удовлетворения запросов GDPR. Однако DPA не в полной мере охватывает более сложные требования к конфиденциальности данных, необходимые для ключевых отраслевых нормативных актов, таких как PHI / HIPAA для здравоохранения, PCI / DSS для обработки кредитных карт или SEC и FINRA для финансовых услуг. Исключение производных данных из-под защиты DPA, несмотря на определенные нормативные акты, такие как FINRA, запрещающие определенные формы обработки производных данных, вызывает дополнительные опасения.
- Безопасность: OpenAI и ее облачные партнеры поддерживают высокие стандарты безопасности, но проприетарный характер ChatGPT и его использования данных вызывает опасения по поводу утечки и эксфильтрации данных. Функции безопасности корпоративного уровня, такие как детализированный контроль доступа на основе ролей и упреждающие решения для “управления правами’, не предусмотрены. Отсутствие сквозного шифрования на платформе OpenAI означает, что данные и разговоры могут быть доступны сотрудникам OpenAI, и нет решений для обфускации данных, таких как маскировка данных или инструменты обнаружения конфиденциальных данных, которые помогли бы в подготовке данных.(разработчики jijomathaid / Shutterstock)
- Управление данными: Эффективное управление корпоративными данными требует соблюдения широкого спектра отраслевых и государственных нормативных актов. Помимо управления жизненным циклом информации (ILM) и соответствия требованиям SOC 2, корпоративные данные должны соответствовать таким стандартам, как PHI / HIPAA, PCI-DSS, SEC, FINRA, FDA и FISMA. Меняющийся ландшафт нормативных актов, касающихся ИИ, таких как Закон об ИИ 2021 года в ЕС и Билль о правах в области искусственного интеллекта в США, усугубляет ситуацию.
В свете этих проблем предприятия внедряют новые инфраструктурные решения для удовлетворения потребностей приложений с генеративным искусственным интеллектом, основанных на данных. Для управления риском раскрытия корпоративных данных необходимо принять строгие меры по защите данных, гарантирующие достижение целей конфиденциальности и безопасности данных потребителей при одновременном использовании преимуществ технологии искусственного интеллекта.
Компаниям из различных отраслей, возможно, придется рассмотреть возможность запуска собственных LLM для выполнения обязательств по соблюдению нормативных требований. Облачные платформы управления данными, которые поддерживают машинное обучение и расширенную подготовку данных для безопасного обучения моделей, становятся все более важными. Отслеживание рабочих процессов, экспериментов, развертываний и связанных с ними артефактов на этих платформах позволяет создавать централизованный реестр моделей для операций машинного обучения (MLOps) и обеспечивает контрольные журналы, воспроизводимость и средства контроля, необходимые для надзора со стороны регулирующих органов.
Структуры данных искусственного интеллекта требуют полного набора возможностей для разработки данных, включая сквозную безопасность, конфиденциальность данных, обработку в режиме реального времени, управление данными, управление метаданными, подготовку данных и машинное обучение. Независимо от того, используются ли частные LLM или общедоступные модели, такие как ChatGPT, централизованный MLOps обеспечивает инженерам по обработке данных контроль над всем жизненным циклом машинного обучения.
Хотя ChatGPT оказал значительное влияние, его успешная интеграция на предприятии зависит от успешного управления данными и процессов разработки данных. Как отметил представитель Deutsche Bank Сен Шанмугасивам, банк, несмотря на свой запрет, активно изучает способы использования инструментов генеративного ИИ “безопасным и совместимым способом”. Интерес к генеративному ИИ и машинному обучению на предприятиях растет, но для обеспечения безопасного будущего корпоративного ИИ потребуются стандарты управления данными и меры предосторожности.