Как и в случае с любой новой инновацией, мнения экспертов и общественности относительно генеративного ИИ вызвали как страх, так и оптимизм.
Основные опасения, связанные с инновациями в области генеративного ИИ, начинаются с возможности получения ошибочных результатов, которые могут нанести вред определенным группам людей или спровоцировать массовые кампании дезинформации. Технические эксперты и ученые также опасаются того времени, когда ИИ сможет автоматизировать рабочие места и процессы, которые исторически поддерживались человеком. Другие опасаются, что генеративный ИИ приведет к исчезновению рабочих мест в целом – и, в конечном счете, людей тоже.
Что касается предприятий, C-подразделения в каждой отрасли опасаются, что сотрудники и заинтересованные стороны передадут свои личные данные в общедоступные модели большого языка (LLM), выставив их наиболее чувствительную личную информацию на всеобщее обозрение.
С появлением таких инструментов, как ChatGPT, “просить ИИ” помочь в достижении целей быстро становится второй натурой. Но LLM хороши настолько, насколько хороши данные, на которых они обучаются, а сегодня это, как правило, общедоступные данные. В результате, чтобы получить ответы, относящиеся к конкретной компании, пользователи включают в свои вопросы специфичный для компании – и, возможно, частный – контекст. Такое использование частной информации приводит к непреднамеренным утечкам, когда данные отправляются в общедоступные LLM. Такие компании, как Samsung, уже столкнулись с этим, что вынуждает компанию предпринимать меры предосторожности и внедрять новые политики безопасности для контроля использования искусственного интеллекта в организации.
CISO и ИТ-директора теперь должны понять, как использовать появляющиеся инновации в области искусственного интеллекта и использовать свои легкодоступные собственные данные, сохраняя при этом контроль и безопасность этих данных, чтобы сделать эти инструменты максимально полезными для их организаций. То, как мы ответим на этот вопрос, вполне может определить будущее технологической индустрии в целом.
Сказать ‘Нет’ ИИ
В конкурентной борьбе между ведущими современными технологическими новаторами за доминирование генеративного ИИ, смогут ли чемпионы по кибербезопасности опередить тех, кто может использовать генеративный ИИ для кражи личных данных и злоупотребления ими? Это зависит от готовности организации принять это, поскольку решение отказаться от внедрения ИИ вынуждает пользователей искать способы обойти эти политики, ведущие к теневому ИИ.
Когда инновации появляются на рынке практически в любой отрасли, мы знаем, что люди пойдут на многое, чтобы заполучить их в свои руки. В начале 2000-х годов многие организации неохотно внедряли Wi-Fi, опасаясь, что это может подорвать их усилия по обеспечению безопасности. Однако пользователи хотели удобства использования беспроводных устройств и часто развертывали точки беспроводного доступа без ведома или согласия ИТ-отдела, подвергая риску всю организацию.
The rise of shadow Научил нас тому, что пользователи найдут способ использовать новые технологии, с их одобрением или без него. Таким образом, компании, которые лишают свои команды возможности взаимодействовать с ИИ – при надлежащем контроле – аналогичным образом обнаружат, что их сотрудники ищут скрытые пути для этого, оставляя субъектам угрозы достаточно возможностей манипулировать конфиденциальными данными и компрометировать их способами, которые предприятие не может контролировать или предсказать.
Еще большую ценность имеет предоставление сотрудникам доступа к инновациям в области искусственного интеллекта: демократизации кибербезопасности, разработке кода и других высокотехнологичных практик посредством обмена знаниями, повышения квалификации и ускорения работы команд; выполнения черных заданий, чтобы освободить людей для более продуктивной, творческой и эффективной работы; и персонализации взаимодействия с клиентами, сотрудниками и конечными пользователями. Но чтобы использовать всю мощь как проприетарных данных, так и общедоступных LLM, мы должны внедрить строгие принципы, обеспечивающие максимально эффективное и безопасное развертывание генеративных инструментов ИИ.
Как сохранять оптимизм
В мире технологий B2B внедрение ИИ в организации начинается с одного важного шага: тщательного принятия решения о том, какие модели LLM использовать, и, в конечном счете, выбора тех, которые обеспечивают уровень защиты, точности и контроля, необходимый для соответствия бизнес-стандартам.
Компаниям следует выбирать LLM, исходя из того, насколько сама LLM и поставщик услуг уделяют приоритетное внимание безопасности и защищенности клиентских данных. Это первое и наиболее важное соображение, поскольку безопасность и конфиденциальность данных должны быть в центре внимания заинтересованных сторон и каждой команды в организации. Четкое представление о мерах безопасности LLM гарантирует, что данные, отправляемые LLM – будь то в виде вопросов, подсказок или контекста – не будут переданы общественности и использованы в будущем при предварительном обучении или доводке новых моделей.
Организациям также следует учитывать, являются ли данные, которые используются LLM, точными, надежными, заслуживающими доверия и непредвзятыми. С тех пор, как генеративный ИИ и LLM появились на рынке, одной из самых больших критических замечаний стала потенциальная предвзятость и общая неточность данных, из которых они извлекаются. Понимание того, откуда поступают данные, которые питают LLM, поможет командам оценить, как это может помочь достижению целей предприятия. Если выходные данные не дают контекстуально точных результатов или взяты из ненадежных источников, это может привести к неточным или вводящим в заблуждение ответам.
Как только компания выберет подходящую LLM для своего варианта использования и требований безопасности, ей понадобится решение для контроля того, кто имеет доступ к возможностям генеративного ИИ. Этот продукт должен предлагать три ключевые возможности. Прозрачность гарантирует, что все данные, отправляемые в LLM, будут показаны пользователю, предотвращая непреднамеренную потерю данных. Исключение и анонимизация позволяют администраторам контролировать, какие данные отправляются за пределы организации, даже позволяя им анонимизировать важные данные. Аудит и контроль соблюдения требований гарантируют, что информация, отправляемая в LLM, и полученные ответы регулируются в соответствии с политиками компании.
По иронии судьбы, чтобы подавить страх, что генеративный ИИ заменит потребность в людях, нам нужно, чтобы люди работали совместно с технологией ИИ и для нее, а не против нее. Внедряя ИИ в организации – с помощью модели, которая защищает данные; с надежными данными, заслуживающими доверия и которые могут существовать в рамках собственной экосистемы компании; и с адекватным контролем над тем, кто может получить доступ к данным, используемым для ИИ, – команды безопасности могут минимизировать риски для организации, предоставляя сотрудникам все передовые возможности и более глубокое понимание, которые предлагает генеративный ИИ.
Искусственный интеллект станет повсеместным явлением в нашей повседневной жизни. Подумайте об облачных вычислениях. Благодаря постоянному вниманию к облачной безопасности мы больше не беспокоимся о том, где используемое нами приложение хранит информацию. Точно так же постоянное внимание к конфиденциальности и качеству данных искусственного интеллекта поможет нам чувствовать себя с искусственным интеллектом так же комфортно, как с облаком.
Майк Николс, вице-президент по управлению продуктами, безопасности, Elastic