Статьи

Восемь протоколов для построения эффективной программы безопасности искусственного интеллекта

Будущее является захватывающим для организаций всех размеров – от крупных предприятий до малого и среднего бизнеса – благодаря огромному потенциалу генерирующего ИИ. Но opportunity несет бремя риска, которое тяжелым грузом ложится на плечи многих CISO по всему миру.

Действительно, быстрое внедрение ИИ во всех организациях опередило разработку комплексных структур для эффективного управления связанными с ними рисками. Очарование преобразующего потенциала ИИ привело к его широкой интеграции во все отрасли, от здравоохранения и финансов до производства и розничной торговли. Однако это быстрое внедрение в некоторых случаях отодвинуло на второй план критическую потребность в надежных стратегиях управления рисками.

Чтобы уменьшить огромный вес и потенциальные опасности этой новой технологии, существует восемь основополагающих протоколов для построения программы обеспечения безопасности искусственного интеллекта, которые могут быть адаптированы к организациям любого размера, как описано в белой книге ISACA “Обещание и опасность революции искусственного интеллекта: управление рисками”.

1. Доверяй, но проверяй

Неуместное доверие к инструменту, который постоянно развивается, сопряжено с риском. Несмотря на это, многие организации слепо следуют первым результатам, созданным ИИ. Например, организации, возможно, внедрили более ранние версии OpenAI в своей операционной среде, и простой переход с ChatGPT 3.0 на 4.0 может привести к совершенно иной глубине результатов, к тому же в более ранних версиях есть доказанные уязвимости в системе безопасности. Важно провести тщательный аудит и запланировать регулярные повторные проверки существующих систем искусственного интеллекта для выявления уязвимостей, оценки соответствия отраслевым стандартам и правилам, а также оценить этические последствия применения искусственного интеллекта.

Несмотря на то, что это обременительная задача, результаты, созданные ИИ, должны постоянно проверяться с помощью систем и механизмов для одобрения искусственно разработанной работы.

2. Разработайте приемлемые политики использования

Необходимо разработать процедуры и правила для обеспечения безопасного и этичного использования ИИ. По мере того, как сотрудники все чаще внедряют ИИ в свою повседневную работу, возрастает риск, связанный с обменом конфиденциальными данными компании.

Политика должна:

  • Будут изменены и адаптированы в соответствии с меняющимися местными нормативными требованиями.
  • Подвергнитесь давлению на предмет непреднамеренной предвзятости и дискриминации.
  • Включают цепочки утверждений и процессы проверки, чтобы обойти инсайдерские угрозы.
  • Должны быть четко доведены до сведения сотрудников посредством обучения надлежащему и ненадлежащему использованию этих инструментов.
3. Назначьте ведущего специалиста по ИИ

Пока не наступит день, когда в корпоративных C-пакетах появится руководитель отдела искусственного интеллекта, организациям следует назначить менеджера проекта для отслеживания и документирования эволюции искусственного интеллекта компании с привлечением всех подразделений, включая кибербезопасность, конфиденциальность данных, юридический отдел, отдел закупок, отдел рисков и аудита. Подотчетность является ключевой, и эта роль должна заключаться в специалисте по предмету, который помогает управлять успешным проектом ИИ и направлять его на протяжении всего жизненного цикла развертывания.

Исторические записи компании необходимы для оптимального использования технологии искусственного интеллекта. Эти записи помогают системе искусственного интеллекта анализировать и извлекать информацию из прошлых ошибок и нерационального распределения ресурсов. Кроме того, решения, основанные на ИИ, могут быть более легко объяснены, поскольку шаги по внедрению становятся воспроизводимыми.

4. Проведите анализ затрат

Важно провести тщательный анализ затрат и выгод для ИИ. Является ли более рентабельным создание или покупка инструментов ИИ?

Организационные факторы, влияющие на это решение, должны выходить за рамки экономической эффективности ИИ как инструмента и учитывать расходы, связанные с мерами безопасности, наряду с потенциальным повышением производительности и оптимизацией рабочей силы.

5. Адаптировать и создавать программы кибербезопасности

Эффективность программы обеспечения безопасности искусственного интеллекта неразрывно связана с надежностью всеобъемлющей системы кибербезопасности и конфиденциальности организации. Хотя программы обеспечения безопасности искусственного интеллекта решают конкретные проблемы, связанные с технологиями искусственного интеллекта, они не должны действовать изолированно. Вместо этого они должны быть интегрированными компонентами всеобъемлющей стратегии кибербезопасности.

Например, организация может использовать передовые инструменты ИИ для обнаружения угроз и реагирования на них, но если в более широкой системе кибербезопасности есть пробелы, такие как слабый контроль доступа или неадекватное шифрование данных, организация остается уязвимой. Реальный пример можно привести из сферы здравоохранения, где ИИ используется для прогнозирования результатов лечения пациентов, но отсутствие надежной кибербезопасности может привести к утечке данных, ставящей под угрозу конфиденциальность и доверие.

Обеспечение интеграции рисков, связанных с искусственным интеллектом, и решений для обеспечения безопасности с самого начала будет иметь большое значение для минимизации потенциально дорогостоящих технологических перестроек.

6. Обязательные аудиты и прослеживаемость

Предприятиям понадобятся лучшие возможности аудита и отслеживания модели ИИ, чтобы понять, откуда инструмент ИИ извлекает свои данные и как он принимает решения. Откуда взялись исходные данные? Манипулировал ли этими данными ИИ или человек, взаимодействующий с ними? Является ли фактором системная предвзятость?

Эти вопросы являются неотъемлемой частью оценки надежности инструментов искусственного интеллекта.

7. Разработайте свод правил этики ИИ

Использование ИИ сопряжено с рядом потенциальных проблем с точки зрения этичности использования инструментов ИИ.

Во многих секторах ИИ может значительно ускорить доставку услуг или продуктов по сравнению со временем, затрачиваемым при использовании традиционных методов. Для тех профессионалов, которые устанавливают почасовые ставки, становится важной переоценка структуры ценообразования и соглашений с клиентами.

Бывают случаи, когда передовое программное обеспечение может идентифицировать работу, созданную ИИ, однако оно может не охватывать все сценарии. Организации должны соблюдать этику, связанную с использованием ИИ, и учитывать политику в стандартных бизнес-операциях.

Этические принципы также должны включать выявление предвзятости и смягчение ее последствий. Прозрачность и подотчетность в процессах разработки ИИ также имеют первостепенное значение, обеспечивая тщательный анализ и укрепляя доверие к системам ИИ.

8. Социальная адаптация

ИИ проникает в большинство слоев общества, включая рабочие места, учебные заведения и профессиональные услуги, такие как подбор персонала.

Чтобы снизить риски для общества, организационные процедуры должны постоянно пересматриваться. Например, ученым, возможно, потребуется изменить свои методы оценки и маркировки, работодателям, возможно, потребуется пересмотреть свои критерии служебной аттестации, а общественность должна быть осведомлена об ИИ и о том, что он влечет за собой, чтобы избежать участия в кампаниях по дезинформации.

Очевидно, что ИИ предлагает беспрецедентные возможности для инноваций и эффективности. И организациям крайне важно подходить к ее внедрению с осторожностью и усердием, обеспечивая адекватное управление потенциальными рисками для ответственного и устойчивого использования всего потенциала ИИ.

Внедряя эти восемь основных протоколов, организации могут эффективно управлять рисками, связанными с ИИ, обеспечивать соблюдение этических стандартов и использовать технологии ИИ в полную силу, защищаясь при этом от потенциальных ловушек.

Примечания

 Futureoflife.org, “Приостановите гигантские эксперименты в области искусственного интеллекта: открытое письмо”, 22 марта 2023 г., https://futureoflife.org/open-letter/pause-giant-ai-experiments /
2 Рандл Дж.; “Руководители кибербезопасности ориентируются в рисках искусственного интеллекта и потенциальных выгодах”, The Wall Street Journal, 25 мая 2023 г., https://www.wsj.com/articles/cybersecurity-chiefs-navigate-ai-risks-and-potential-rewards-9138b76d
3 Openai.com, “Представляем ChatGPT”, 30 ноября 2022, https://openai.com/blog/chatgpt
4 bard.google.com, “Попробуйте Bard, эксперимент Google в области искусственного интеллекта”, https://bard.google.com /
5 Айер А.; “За мудростью ChatGPT: 300 миллиардов слов, 570 ГБ данных”, журнал Analytics India, 15 декабря 2022 г., https://analyticsindiamag.com/behind-chatgpts-wisdom-300-bn-words-570-gb-data /
6 Разработчик.nvidia.com, “Генерация естественного языка Мегатрона-Тьюринга”, разработчик NVIDIA, 3 октября 2022 года, https://developer.nvidia.com/megatron-turing-natural-language-generation
7 Спатаро Дж.; “Представляем Microsoft 365 Copilot – вашего второго пилота для работы”, Официальный блог Microsoft, 16 марта 2023 г. https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/
8 Руби Д.; “Более 30 подробных статистических данных ChatGPT – пользователи и факты”, DemandSage, 7 июля 2023 г. https://www.demandsage.com/chatgpt-statistics /
9 Бушнелл С.Т.; Правда о Генри Форде, The Reilly & Lee Company, США, 1992
10 meta.stackoverflow.com, “Временная политика: ChatGPT запрещен”, https://meta.stackoverflow.com/questions/421831/temporary-policy-chatgpt-is-banned
11 Коули С.; “Samsung ограничивает использование генеративного искусственного интеллекта после утечки кода”, Tech.co, 8 мая 2023 г., https://tech.co/news/samsung-restricts-generative-ai-use#:~:text=New%20Policy%20Bans%20Samsung%20Employeesz
12 Тилли, А.; М. Круппа; “Apple ограничивает использование сотрудниками ChatGPT, присоединяясь к другим компаниям, опасающимся утечек”, The Wall Street Journal, 18 мая 2023 г., https://www.wsj.com/articles/apple-restricts-use-of-chatgpt-joining-other-companies-wary-of-leaks-d44d7d34?mod=article_inline
13 Лукпат А.; “JPMorgan ограничивает сотрудников в использовании ChatGPT”, The Wall Street Journal, 22 февраля 2023 г., https://www.wsj.com/articles/jpmorgan-restricts-employees-from-using-chatgpt-2da5dc34?mod=article_inline
14 Moneylife.in, “JPMorgan Chase ограничивает использование работниками ChatGPT”, 23 февраля 2023 г., https://www.moneylife.in/article/jpmorgan-chase-restricts-workers-from-using-chatgpt/69948.html
15 Гейтс Б.; “Эра искусственного интеллекта началась”, GatesNotes, 21 марта 2023, https://www.gatesnotes.com/The-Age-of-AI-Has-Begun
16 Олт А.; “ИИ–бот ChatGPT сдает экзамены на получение медицинской лицензии в США без зубрежки – в отличие от студентов”, Medscape, 26 января 2023 г., https://www.medscape.com/viewarticle/987549; Слоан К.; “ChatGPT сдает экзамены в юридическую школу, несмотря на “посредственную” успеваемость”, Reuters, 25 января 2023 г., https://www.reuters.com/legal/transactional/chatgpt-passes-law-school-exams-despite-mediocre-performance-2023-01-25/ ; businesstoday.in, “”Следующий шаг для искусственного интеллекта”: ChatGPT успешно сдала экзамен на медицинское лицензирование в США и экзамен на степень MBA в Уортоне”, Бизнес сегодня, 25 января 2023 года, https://www.businesstoday.in/technology/story/next-step-for-ai-chatgpt-clears-us-medical-licensing-exam-and-whartons-mba-exam-367569-2023-01-25 ; tribalhealth.com, “Искусственный интеллект сдает экзамены в медицинскую школу”, 24 января 2023 года, https://tribalhealth.com/chatgpt /; Уитфорд Э.; “Вот как Forbes заставил ИИ ChatGPT написать 2 эссе для колледжа за 20 минут”, Forbes, 9 декабря 2022 г., https://www.forbes.com/sites/emmawhitford/2022/12/09/heres-how-forbes-got-the-chatgpt-ai-to-write-2-college-essays-in-20-minutes/?sh=313d2f3b56ad ; Хатсон М.; “Искусственный интеллект”учится писать компьютерный код “ошеломляющими” темпами”, Наука, 8 декабря 2022 г., https://www.17
science.org/content/article/ai-learns-write-computer-code-stunning-advance Вэлланс, Б.; С. Вэлланс; “”Крестный отец” ИИ Джеффри Хинтон предупреждает об опасностях, уходя из Google”, BBC News, https://www.bbc.com/news/world-us-canada-65452940
18 Джонс Дж.; “Искусственный интеллект может автоматизировать 300 миллионов рабочих мест. Вот те, которые подвергаются наибольшему (и наименьшему) риску “, ZDNET, 27 мая 2023 г., https://www.zdnet.com/article/ai-could-automate-25-of-all-jobs-heres-which-are-most-and-least-at-risk/ ; Элдер Б.; “Отдайте свою офисную работу чуду производительности искусственного интеллекта, – говорит Goldman Sachs”, Financial Times, 27 марта 2023 г., https://www.ft.com/content/50b15701-855a-4788-9a4b-5a0a9ee10561; Нил-Бейли, М.; Э. Бриньолфссон; А. Коринек; “Машины разума: аргументы в пользу бума производительности на базе искусственного интеллекта”, Брукингс, 10 мая 2023 г., https://www.brookings.edu/research/machines-of-mind-the-case-for-an-ai-powered-productivity-boom /; Каллиамваку Э.; “Исследование: количественная оценка влияния GitHub Copilot на производительность и счастье разработчиков”, Блог GitHub, 7 сентября 2022 г., https://github.blog/2022-09-07-research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/ ; Коринек, А.; “Языковые модели и когнитивная автоматизация для экономических исследований”, Национальное бюро экономических исследований, https://doi.org/10.3386/w30957; Бриньолфссон Э.; Д. Ли; Л. Рэймонд; “Генеративный искусственный интеллект в действии”, Национальное бюро экономических исследований, https://doi.org/10.3386/w31161; Чуи М.; Р. Робертс; Л. Йи; “Генеративный искусственный интеллект здесь: как такие инструменты, как ChatGPT, могут изменить ваш бизнес”, McKinsey, 20 декабря 2022 г., https://www.mckinsey.com/capabilities/quantumblack/our-insights/generative-ai-is-here-how-tools-like-chatgpt-could-change-your-business
19 Бонд С.; “Поддельные вирусные изображения взрыва в Пентагоне, вероятно, были созданы искусственным интеллектом”, NPR, 22 мая 2023 г., https://www.npr.org/2023/05/22/1177590231/fake-viral-images-of-an-explosion-at-the-pentagon-were-probably-created-by-ai
20 Соч. Джонс
21 Мэддисон Л.; “Работники Samsung допустили серьезную ошибку, используя ChatGPT”, Techradar, 4 апреля 2023 г., https://www.techradar.com/news/samsung-workers-leaked-company-secrets-by-using-chatgpt
22 Сенгупта А.; “Amazon предупреждает сотрудников о ChatGPT, просит не делиться конфиденциальной информацией с чат-ботом”, India Today, 27 января 2023 г., https://www.indiatoday.in/technology/news/story/amazon-warns-employees-chatgpt-do-not-share-sensitive-info-with-chatbot-2327014-2023-01-27
23 Маккендрик Дж.; “Кому в конечном итоге принадлежит контент, созданный ChatGPT и другими платформами искусственного интеллекта?”, Forbes, 22 февраля 2023 г., https://www.forbes.com/sites/joemckendrick/2022/12/21/who-ultimately-owns-content-generated-by-chatgpt-and-other-ai-platforms/?sh=21cf97855423
24 Бриттен Б.; “Управление по авторским правам США заявляет, что некоторые работы с использованием искусственного интеллекта могут быть защищены авторским правом”, Reuters, 15 марта 2023 г., https://www.reuters.com/world/us/us-copyright-office-says-some-ai-assisted-works-may-be-copyrighted-2023-03-15/
25 Даффи Дж.; “Почему авторы знают, что использование ChatGPT – плохая идея”, PCMAG, 25 января 2023 г., https://www.pcmag.com/opinions/why-writers-know-using-chatgpt-is-a-bad-idea
26 Менн Дж.; “Кибербезопасность сталкивается с вызовом в связи с ростом искусственного интеллекта”, The Washington Post, 11 мая 2023 г., https://www.washingtonpost.com/technology/2023/05/11/hacking-ai-cybersecurity-future /
27 исследований.checkpoint.com, “OPWNAI: киберпреступники начинают использовать ChatGPT”, 6 января 2023 года, https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt /
28 darktrace.com, “Крупное обновление продукта Darktrace / EmailTM Защищает организации от меняющегося ландшафта киберугроз, включая генеративные взломы электронной почты с использованием искусственного интеллекта и новые атаки социальной инженерии”, 3 апреля 2023 г., https://darktrace.com/news/darktrace-email-defends-organizations-against-evolving-cyber-threat-landscape
29 Там же.
30 foxbusiness.com, “Джей Чодри из Zscaler приводит пугающий пример глубокой подделки искусственного интеллекта”, 2 июня 2023 года, https://www.foxbusiness.com/video/6328691103112
31 Zscaler.com, “Отчет о фишинге Zscaler ThreatLabZ 2023”, https://info.zscaler.com/resources-industry-reports-threatlabz-phishing-report
32 Сингх С.; “ИТ-лидеры предсказывают, что кибератаки с поддержкой ChatGPT неизбежны”, Blackberry, 2 февраля 2023 г., https://blogs.blackberry.com/en/2023/02/it-leaders-predict-chatgpt-enabled-cyberattacks-are-imminent
33 Ланц, Дж. А.; “Познакомьтесь с PassGPT, искусственным интеллектом, обученным на миллионах просочившихся паролей”, Расшифровка, 9 июня 2023 года, https://decrypt.co/144004/meet-passgpt-ai-trained-millions-leaked-passwords
34 Whitehouse.gov, “ИНФОРМАЦИОННЫЙ БЮЛЛЕТЕНЬ: администрация Байдена-Харриса объявляет Национальную стратегию кибербезопасности”, 2 марта 2023 г., https://www.whitehouse.gov/briefing-room/statements-releases/2023/03/02/fact-sheet-biden-harris-administration-announces-national-cybersecurity-strategy/
35 Макдональд, А.; “Байден призвал рассмотреть федеральную систему цифровой идентификации”, обновление биометрических данных, 18 апреля 2022 г., https://www.biometricupdate.com/202204/biden-urged-to-consider-federal-digital-identity-framework
36 Лойндс, Дж.; “Как сделать джейлбрейк ChatGPT: лучшие подсказки и многое другое”, Dexerto, 1 августа 2023, https://www.dexerto.com/tech/how-to-jailbreak-chatgpt-2143442 /
37 Келли Д.; “WormGPT – инструмент генерирования искусственного интеллекта, который киберпреступники используют для запуска BEC-атак”, | SlashNext, 13 июля 2023 г., https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/
38 ru.wikipedia.org, “Галлюцинация (искусственный интеллект)”, https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)#:~:text=For%20example%2C%20a%20hallucinating%20chatbot
39 Маккракен Х.; “Если ChatGPT не сможет лучше разобраться в фактах, ничто другое не имеет значения”, Fast Company, 11 января 2023 г., https://www.fastcompany.com/90833017/openai-chatgpt-accuracy-gpt-4
40 Альтман С.; “ChatGPT невероятно ограничен, но в некоторых вещах достаточно хорош, чтобы создать обманчивое впечатление величия. было бы ошибкой полагаться на него в чем-то важном прямо сейчас. это предварительный просмотр прогресса; нам предстоит много работы над надежностью и правдивостью “., Twitter, 10 декабря 2022 года, https://twitter.com/sama/status/1601731295792414720?lang=en
41 Вайзер Б.; “Вот что происходит, когда ваш юрист использует чат GPT”, “Нью-Йорк Таймс”, 27 мая 2023 г., https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
42 NIST, “Система управления рисками искусственного интеллекта (AI RMF 1.0)”, январь 2023 г., https://doi.org/10.6028/nist.ai.100-1
43 Поремба С.; “ChatGPT подтверждает утечку данных, что вызывает опасения по поводу безопасности”, Security Intelligence, https://securityintelligence.com/articles/chatgpt-confirms-data-breach /
44 Берджесс, М.; “Взлом ChatGPT только начинается”, Wired, 13 апреля 2023 г., https://www.wired.com/story/chatgpt-jailbreak-generative-ai-hacking /
45 Водецки Б.; “Знакомьтесь, Alpaca: чат с открытым исходным кодом, созданный менее чем за 600 долларов”, AI Business, 20 марта 2023 г., https://aibusiness.com/nlp/meet-alpaca-the-open-source-chatgpt-made-for-less-than-600
46 Сингх С.; “ИТ-лидеры предсказывают, что кибератаки с поддержкой ChatGPT неизбежны”, BlackBerry, 2 февраля 2023 г. https://blogs.blackberry.com/en/2023/02/it-leaders-predict-chatgpt-enabled-cyberattacks-are-imminent .
47 Потти С.; “Как Google Cloud планирует повысить безопасность с помощью генеративного искусственного интеллекта”, Google Cloud Blog, 14 апреля 2023 г., https://cloud.google.com/blog/products/identity-security/rsa-google-cloud-security-ai-workbench-generative-ai
48 ОБЩИЕ ТРЕБОВАНИЯ Microsoft к стандарту ответственного искусственного интеллекта, версия v2 ДЛЯ ВНЕШНЕГО ВЫПУСКА. (2022). https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE5cmFl
49 unesco.org, “Этика искусственного интеллекта”, https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
50 ibm.com, “Что такое этика ИИ”, https://www.ibm.com/topics/ai-ethics
51 defense.gov, “Министерство обороны принимает этические принципы искусственного интеллекта”, 24 февраля 2020 г., https://www.defense.gov/News/Releases/Release/Article/2091996/dod-adopts-ethical-principles-for-artificial-intelligence/
52 ЮНЕСКО “,“Рекомендация ЮНЕСКО по этике искусственного интеллекта: ключевые факты”, 2023,,” 2023, https://unesdoc.unesco.org/en.articles/unescos-recommendation-ethics-artificial-intelligence-key-facts

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *