Новом отчете подчеркивается огромное влияние искусственного интеллекта на индустрию кибербезопасности
Новости

 Новом отчете подчеркивается огромное влияние искусственного интеллекта на индустрию кибербезопасности

Ожидается, что в 2024 году киберпреступность обойдется пользователям интернета в мире в общей сложности в 9,22 триллиона долларов. К 2028 году эта цифра составит почти 14 триллионов долларов.

Вооруженные арсеналами кибероружия с поддержкой искусственного интеллекта (ИИ), злоумышленники – мошенники, хакеры, спонсируемые государством кибертеррористы – проводят атаки с большей яростью и воодушевлением; скорость и успех постоянно растут. Это означает, что, казалось бы, с каждым днем кибербезопасность становится все более важной, но для ее поддержания тоже нужен ИИ.

Мы хотели узнать больше об ИИ, кибербезопасности и о том, как они пересекаются. Чтобы ответить на несколько важных вопросов – является ИИ позитивной общественной силой или вредной? – и узнайте больше о том, как ИИ препятствует и помогает продолжающейся борьбе мира с киберпреступниками. Но мы также хотели точно определить крупнейшие угрозы кибербезопасности для пользователей Интернета и какую роль должен играть ИИ.

Итак, мы подумали: кого лучше спросить, как не самого ИИ?

Ободрившись, мы спросили пять ведущих языковых моделей ИИ (ChatGPT, Perplexity AI, Google Bard, Claude, и Llama), что они думают о ландшафте кибербезопасности и роли ИИ в содействии киберпреступности. Их ответы шокируют, удивляют и даже развлекут вас; но они также содержат множество полезных советов по обеспечению безопасности в Интернете.

Однако сначала давайте подведем итоги, используя нашу 10-ку лучших статистических данных по ИИ и кибербезопасности.

ИИ в кибербезопасности: топ-10 статистических данных

  • Ожидается, что к 2030 году мировой рынок ИИ в сфере кибербезопасности будет стоить 133,8 миллиарда долларов.
  • Нарушения, которые затронули организации с полностью развернутыми решениями искусственного интеллекта для обеспечения безопасности, обошлись им в среднем на 1,8 миллиона долларов дешевле, чем предприятиям без них.
  • Организациям с кибербезопасностью ИИ потребовалось на 100 дней меньше, чтобы выявить и локализовать эти утечки данных, когда они произошли, по сравнению с теми, у кого их не было (IBM, 2023).
  • 75% специалистов по безопасности отметили рост кибератак в прошлом году, и 85% винят ИИ.
  • Почти половина (46%) тех же респондентов считают, что генеративный ИИ (ИИ с возможностью создания контента) сделает организации более уязвимыми для кибератак, чем они были до ИИ (Deep Instinct, 2023).
  • Компании все чаще используют упреждающий, а не реактивный подход к кибербезопасности, и в 2023 году этот подход к кибербезопасности увеличится на 95% по сравнению с 2022 годом (Deep Instinct, 2023).
    Среди основных опасений экспертов по кибербезопасности, связанных с внедрением ИИ, были рост проблем конфиденциальности (39%), необнаруживаемые фишинговые атаки (37%), а также объем и скорость атак (33%) (Deep Instinct, 2023).
  • 34% организаций уже используют или внедряют инструменты кибербезопасности ИИ.
  • 69% предприятий считают, что ИИ в кибербезопасности необходим из-за растущего числа угроз, до которых не могут добраться аналитики-люди.
  • Благодаря ИИ к 2025 году прогнозный анализ киберугроз увеличится на 150% (Zipdo, 2023).

Информация о кибербезопасности ИИ – Инфографика

ИИ и киберпреступность: помеха или помощь?

ИИ и киберпреступность связаны сложными отношениями.

С одной стороны, модели и алгоритмы ИИ позволяют мировым командам по кибербезопасности быстрее выявлять угрозы – иногда еще до того, как они возникают, – и оперативно действовать для борьбы с ними. Но, с другой стороны, это тот самый инструмент, который позволяет устранять все более умные и опасные угрозы, которые представляют киберпреступники: позволяет им проводить более быстрые атаки и в более крупном масштабе.

Итак, ИИ ‘хороший’ или ‘плохой’ – или все это немного более тонко?

Как ИИ используется для совершения киберпреступлений

По мере роста потенциальных применений ИИ – от создания блогов и художественных работ до его растущей роли в персонализированной медицине, – появляются и возможности для его использования.

И “темная сторона” ИИ не более заметна, чем в сфере кибербезопасности.

Например, три четверти специалистов по безопасности отметили рост кибератак за последний год: и из опрошенных 85% указали пальцем на киберпреступников, оснащенных генеративным ИИ (Deep Instinct, 2023). Как и правительство Великобритании: в отчете под названием “Риски безопасности генеративного искусственного интеллекта до 2025 года” говорится, что ИИ обеспечит “более быстрые, эффективные и крупномасштабные кибервторжения”.

Тогда какова роль ИИ в содействии киберпреступности и ее подпитке? Давайте посмотрим.
Это увеличивает скорость и объем атак

Одним из главных преимуществ ИИ является его способность автоматизировать – и, следовательно, ускорять – атаки.

С помощью ИИ хакеры могут осуществлять широкий спектр вредоносных действий (таких как распределенный отказ в обслуживании (DDoS), атаки нулевого дня и атаки методом грубой силы) со скоростью и масштабами, выходящими за пределы человеческих возможностей. Например, ИИ может оптимизировать DDoS-атаки, которые пытаются вывести из строя веб-сайт или сеть, заваливая их запросами, путем динамической корректировки векторов атак для адаптации к изменяющимся условиям сети.

Это увеличивает продолжительность и эффективность DDoS–кампаний, освобождая злоумышленникам возможность выполнять их с новой энергией и в еще большем масштабе. В 2023 году мы стали свидетелями того, как Google отразил крупнейшую на сегодняшний день DDoS-атаку в Интернете. Атака с использованием ИИ, которая достигла 398 миллионов запросов в секунду, была в семь с половиной раз масштабнее любой предыдущей атаки, с которой сталкивался Google.

В том же году Amazon также подвергся мощной DDoS-атаке с использованием искусственного интеллекта, и это явно обеспокоило отрасль. В отчете Deep Instinct за 2023 год, озаглавленном “Генеративный ИИ и кибербезопасность: светлое будущее или поле битвы бизнеса?”, было обнаружено, что треть (33%) опрошенных экспертов по кибербезопасности обеспокоены ролью ИИ в увеличении скорости и объема атак – третьей по значимости причине в списке.

Что касается атак методом перебора (при которых злоумышленник систематически пытается угадать все возможные комбинации пароля, пока не выберет нужную), ИИ меняют правила игры. Один сайт, который подсчитывает количество времени, необходимое ИИ для подбора паролей различной длины, заявляет, что любой пароль, содержащий только цифры, может быть мгновенно угадан ИИ. Даже более сложные пароли, например, состоящие из восьми символов (включая цифры, заглавные и строчные буквы и символы), требуют от ИИ всего семи часов, чтобы правильно угадать.

Он адаптируется к конкретным средствам защиты

Способность ИИ обучаться и адаптироваться является одним из его величайших атрибутов и лишь одной из причин, по которой это такая эффективная стратегия кибербезопасности.

Тем не менее, как и в случае с большинством сильных сторон ИИ, им также могут воспользоваться хакеры.

Возьмем, к примеру, вредоносное ПО. Это программное обеспечение, такое как вирусы, черви, и программы-вымогатели, предназначенные для компрометации компьютерных систем, сетей или устройств. Благодаря ИИ злоумышленники теперь могут использовать ИИ для создания вредоносного ПО, способного изменять свой код по своему желанию (так называемое “полиморфное вредоносное ПО”), что чрезвычайно затрудняет обнаружение и извлечение брандмауэрами и антивирусным программным обеспечением.

С помощью алгоритмов машинного обучения ИИ (которые мы вскоре обсудим) злоумышленники также могут адаптироваться к шаблонам и процессам решений для обнаружения вторжений. Как объясняет Михоко Мацубара, главный стратег по кибербезопасности в NTT Corporation, это позволяет злоумышленникам с поддержкой ИИ с большей легкостью обнаруживать средства защиты и обходить их – и использовать любые системные пробелы или слабости с предельной безжалостностью.

“Злоумышленники будут использовать ИИ для дальнейшего ускорения вредоносного ПО, – заявляет Мацубара, – и в пассивной разведке для выявления целей, программного обеспечения и слабых мест для использования”.

Он позволяет проводить более изощренные атаки

Используя способность ИИ анализировать огромные массивы данных и извлекать уроки из них, хакеры могут проводить более изощренные, более убедительные атаки.

Возьмем, к примеру, фишинг: форму кибератаки, при которой мошенники связываются с жертвой по электронной почте или SMS, выдавая себя за законное юридическое лицо, чтобы убедить получателя перейти по ссылке, при нажатии на которую будет запрошена их конфиденциальная информация. (Количество существующих вредоносных URL-адресов, кстати, неизменно увеличивается с каждым годом: рост на 61% в 2022 году до почти 30 миллионов в 2023 году.)

Фишинг – форма социальной инженерии, при которой хакеры манипулируют своими жертвами и обманывают их с помощью психологических техник – является одной из наиболее распространенных угроз кибербезопасности. В 2023 году 94% организаций стали жертвами фишинг-атаки; из них 96% подверглись негативному воздействию.

В 2022 году это был самый распространенный вид киберпреступности в США, на него было 300 497 жалоб.

Самая сложная часть выполнения фишинг-атаки – это придать сообщениям видимость легитимности, и теперь ИИ помогает злоумышленникам преодолеть этот барьер. С помощью ИИ (в частности, подмножества, называемого обработкой естественного языка, или NLP) мошенники могут создавать убедительные, высоко персонализированные фишинговые сообщения. Алгоритмы НЛП дают фишерам инструменты для имитации человеческого стиля общения, что приводит к более успешным атакам.

Фишинг как подмножество киберпреступности включает в себя несколько собственных подмножеств: в том числе smishing (SMS-фишинг), vishing (голосовой фишинг), spire phishing (более целенаправленная форма), whaling (фишинг, нацеленный на высокопоставленных лиц) и сбор учетных данных. Из них сбор учетных данных оказался самым популярным в 2022 году, составив более четверти (76%) атак “нулевого часа”.

Как ИИ используется для борьбы с киберпреступностью

При любом обсуждении влияния ИИ на кибербезопасность в 2024 году легко представить ИИ в роли злодея из пантомимы, особенно учитывая все вышеупомянутые способы, с помощью которых ИИ способствует киберпреступности.

Однако это означало бы упустить из виду более тонкие моменты дискуссии, а именно множество способов, которыми эксперты используют ИИ для предотвращения, обнаружения и борьбы со всеми формами киберпреступности.

И к тому же с большим эффектом. Исследование IBM “Стоимость утечки данных в 2023 году”, например, показало, что использование ИИ и автоматизации сэкономило организациям почти 1,8 миллиона долларов на расходах, связанных с утечкой данных.

Учитывая, что средняя стоимость утечки данных в 2023 году составила 4,45 миллиона долларов, это означает, что утечка данных обойдется организациям с кибербезопасностью с поддержкой ИИ всего в 2,65 миллиона долларов – более чем на 40% меньше. Кроме того, настройки кибербезопасности на базе ИИ помогли организациям ускорить процессы выявления и локализации нарушений в среднем более чем на 100 дней.

Тогда каким же образом ИИ защищает наши средства к существованию и бизнес от киберпреступности?

Давайте погрузимся глубже.

Улучшенное обнаружение угроз и фишинга

Алгоритмы ИИ способны интегрировать широкий спектр данных в свой подход к обнаружению киберугроз по мере их возникновения.

Сюда входят, но не ограничиваются ими:

  • Поведенческий анализ, который анализирует поведение пользователей для выявления странных моделей или любых отклонений от нормы, которые могут свидетельствовать о злонамеренной активности.
  • Расширенное обнаружение постоянных угроз (APT), которое постоянно отслеживает тонкие долгосрочные признаки компрометации, которые традиционные системы безопасности могут пропустить.
  • Усовершенствованные ИИ технологии управления информацией о безопасности и событиями (SIEM), которые автоматизируют корреляцию и анализ событий безопасности из различных источников для обеспечения более быстрого и точного обнаружения угроз.

Как это выглядит на практике? Что ж, недавние исследования показали, что ИИ чрезвычайно эффективен при анализе кода на предмет угроз: выявляется на 70% больше вредоносных скриптов, чем обычными методами. Когда дело дошло до обнаружения попыток вредоносных скриптов нацелиться на устройство, ИИ также зарегистрировал показатель точности на 300% выше, чем у традиционных методов (VirusTotal, 2023).

Что касается обнаружения фишинга, системы ИИ просматривают огромные массивы данных, которые включают содержимое электронной почты, взаимодействия с пользователями, характеристики веб-сайтов, а также известные и предполагаемые случаи фишинга в прошлом, чтобы выявить тенденции и закономерности, связанные с этими типами кибератак.

Возьмем, к примеру, спам-фильтр вашего почтового провайдера. Каждый день он использует ИИ для бесшумного и добросовестного выполнения своей работы по выявлению и блокированию фишинговых писем из вашего почтового ящика. (Только Google ежедневно блокирует около 100 миллионов спам-писем).

Это включает в себя сканирование входящих электронных писем на наличие известных фишинговых шаблонов, таких как вредоносные вложения и подозрительные ссылки, и удаление всего, что вызывает тревогу. Фильтры контента ИИ также анализируют, что говорится в этих электронных письмах (и как это говорится), для принятия решений. Электронные письма с срочными призывами к действию или запросами конфиденциальной информации обычно оказываются заблокированными; так же, как и письма с орфографическими, грамматически некорректными или гиперболическими формулировками.

Кроме того, ИИ работает не только над обнаружением и предотвращением киберпреступлений. Это также и личные преступления.

В свете недавних событий больше напоминают 2002 года, отчет меньшинства , чем каких-либо реальных событий, ИИ теперь прогноза преступности в неделю, прежде чем это произойдет – и с умопомрачительной 90% точностью.

Быстрый анализ инцидентов и машинное обучение

В непрерывном, постоянно меняющемся мире кибербезопасности часто не хватает времени на ручное обнаружение угроз – и исследование, проведенное в 2023 году, показало, что опрошенные сотрудники Операционного центра безопасности тратят треть (33%) своего времени на проверку и расследование ложных срабатываний. Более того, еще 80% заявили, что ручное управление “сильно” замедлило их процессы и сократило общее время реагирования на угрозы (Morning Consult и IBM, 2023).

Одно решение? Подмножество ИИ, называемое быстрым анализом инцидентов.

Быстрый анализ инцидентов включает в себя управляемую ИИ обработку огромных наборов данных для выявления потенциальных угроз безопасности. Для этого в системах ИИ используются алгоритмы машинного обучения. Они позволяют инструментам кибербезопасности, основанным на ИИ, не только анализировать журналы, сетевой трафик и другие источники данных, но и извлекать из них уроки: синтезировать эти новые знания в постоянно обучающийся, адаптирующийся подход к борьбе с угрозами.

Машинное обучение позволяет системам, управляемым ИИ, быстро выявлять аномалии на основе исторических и текущих закономерностей: затем быстро действовать, чтобы изолировать и смягчить угрозу. Поскольку алгоритмы подпитываются реальными данными и всегда учатся на их основе, вероятность ложных срабатываний меньше. (Например, один инструмент кибербезопасности сократил количество ложных срабатываний в среднем на 90%.)

Это освобождает целые команды людей–аналитиков от ручных задач – давая экспертам из плоти и крови по кибербезопасности больше времени, чтобы сосредоточиться на стратегическом реагировании и устранении последствий.

Доктор Роберт Джонс, аналитик данных в Hackr, подчеркивает, насколько важна дополнительная (тысяча) пар глаз ИИ.

“Анализируя петабайты данных в режиме реального времени, системы ИИ могут выявлять аномалии, которые аналитики-люди могли бы не заметить: предоставляя командам безопасности систему раннего предупреждения, позволяющую опережать возникающие проблемы”.

“ИИ также помогает снизить нагрузку за счет автоматизации рутинных задач безопасности”, – продолжает доктор Джонс. “В одном проекте ИИ просеял журналы брандмауэра и IDS, обнаружив 900 ежедневных оповещений, которые мы, вероятно, пропустили бы из-за усталости. Это показывает, как ИИ укрепляет защиту, соединяя точки зрения в нескольких разнообразных источниках информации. ”

Моделирование социальной инженерии

Поскольку социальная инженерия замешана в ошеломляющих 98% кибератак, это угроза, к которой пользователи Интернета, особенно те, которые представляют организации с привилегированным доступом к данным клиентов и компаний, должны быть настороже.

Здесь могут помочь симуляции социальной инженерии на базе ИИ. Они включают в себя компанию, имитирующую с помощью ИИ атаки социальной инженерии: тестирование способности своих сотрудников обнаруживать их и бороться с ними. С помощью эффективного моделирования организации могут выявлять слабые места в своих собственных системах кибербезопасности и внедрять более целевые программы обучения персонала.

Кроме того, использование контента, созданного ИИ, в симуляциях социальной инженерии помогает ознакомить сотрудников со стилями общения ИИ – что жизненно важно для выявления этих схем до того, как они смогут внедриться.

Какие, по мнению ИИ, самые большие угрозы для пользователей Интернета в 2024 году?

Чтобы оценить наиболее распространенные и опасные угрозы для современных пользователей Интернета, мы обратились к пяти ведущим экспертам в области кибербезопасности за их лучшими рекомендациями. Все они были заняты.

Итак, мы переключились на совершенно другой набор экспертов по технологиям и кибербезопасности – языковые модели ИИ. В состав собранной нами команды входили ChatGPT, а также четверо ведущих конкурентов ChatGPT:

  • ChatGPT
  • Perplexity ИИ
  • Bard (Google)
  • Llama (Meta)
  • Claude

Что эти пять ведущих языковых моделей ИИ могут сказать о главных угрозах нашей онлайн-безопасности? Давайте выясним.

Атаки на основе ИИ и системные уязвимости

Есть ли в мире лояльность? Среди ИИ, по–видимому, нет – потому что из пяти ИИ, которых мы “опросили”, четыре – ChatGPT, Perplexity AI, Google Bard, и Llama – указали на атаки с использованием ИИ как на одну из наиболее актуальных угроз кибербезопасности в 2024 году. (Клод настойчиво намекал в этом направлении, но прямо не назвал ИИ среди своих главных киберпространственных проблем.)

Однако это можно частично объяснить тем фактом, что термин “атаки с использованием ИИ” является таким широким и охватывает широкий спектр киберугроз и стратегий.

Например, программы-вымогатели и вредоносное ПО были выделены всеми пятью ИИ. “Распространенность программ-вымогателей продолжает расти”, – предупредил ChatGPT, при этом “атаки становятся все более изощренными, с использованием передовых методов шифрования и уязвимостей нулевого дня”. Недоумение ИИ, в частности, сосредоточился на росте программ-вымогателей как услуги (RaaS), в то время как Клод просто добавил, что “программы-вымогатели остаются разрушительными”.

Эту точку зрения, кстати, разделяют профессионалы в области безопасности: 46% из них назвали программы-вымогатели главной угрозой безопасности данных в своих организациях.

Более того, 62% из той же выборки согласились с тем, что программы-вымогатели были их главной проблемой, по сравнению с 44% в 2022 году (Deep Instinct, 2023). В другом опросе – на этот раз среди 2300 лиц, принимающих решения по кибербезопасности, из крупных организаций в 16 странах – респонденты назвали вредоносное ПО с поддержкой ИИ самой серьезной киберугрозой.

Но вернемся к нашим ИИ. Помимо описания опасностей атак с использованием ИИ, все пять использовали ту или иную форму “обвинения жертв”, указывая на уязвимость целей как ключевой фактор.

Уделяя особое внимание уязвимостям мобильных устройств, ChatGPT сказал: “поскольку использование мобильных устройств многими пользователями превосходит использование традиционных компьютеров, возрастает угроза уязвимостей, связанных с мобильными устройствами, включая небезопасные приложения и фишинговые атаки с мобильных устройств”. Клод несколько загадочно добавил, что “критической инфраструктуре не хватает достаточных гарантий”.

Что касается Llama, то она высказала мнение, что “растущее использование устройств IoT [Интернета вещей] создало новые уязвимости, и многие устройства открыты для взлома и других форм кибератак”. В нем также упоминается более широкая недостаточная осведомленность о кибербезопасности, предполагая, что “многим пользователям Интернета по-прежнему не хватает базовых знаний о лучших практиках и угрозах онлайн-безопасности”.

Один эксперт-человек, с которым мы поговорили, также обратил внимание на системные уязвимости.

Эд Скоудис, основатель Counter Hack и президент Технологического института SANS, говорит, что в 2024 году следует наблюдать тенденцию к взлому систем – даже систем, основанных на ИИ. “В 2023 году мы стали свидетелями утечки пользовательских данных в системах чата ИИ”, – заявляет Скоудис.

“Мы увидим рост преднамеренных атак, нацеленных на эти системы, особенно через их интерфейсы прикладного программирования (API). Эти API, которые наделяют системы искусственного интеллекта различными возможностями, еще не прошли необходимую проверку кибербезопасности. Ожидайте, что злоумышленники воспользуются уязвимостями API для доступа к пользовательской информации в системах ИИ и ее кражи.”

Изощренные фишинговые атаки

Растущая изощренность фишинговых атак была горячей темой среди пяти ИИ, с которыми мы консультировались. Все они именуются фишингом (за исключением Llama, в котором просто говорилось об “онлайн-мошенничестве”), и тем более хитроумными становятся эти атаки.

Это хитрость человеческого рода – или искусственная? Это зависит от того, кого вы спросите.

“Методы фишинга становятся все более изощренными, – пишет ChatGPT, – часто используя ИИ и машинное обучение для создания весьма убедительных поддельных сообщений и веб-сайтов”.

Недоумение ИИ также на словах одобряет “фишинговые атаки с помощью ИИ”. В целом, однако, он менее склонен вмешивать себе подобных и предпочитает перекладывать ответственность на людей-хакеров. В нем говорится: “Фишинг, программы-вымогатели и утечки данных по-прежнему остаются распространенными угрозами, при этом высокий процент нарушений объясняется человеческими ошибками, злоупотреблением привилегиями и социальной инженерией”. (Конечно, это верно: около 88% всех утечек данных происходят по вине сотрудников-людей.)

Клод остался в стороне, заявив лишь, что “фишинговые мошенничества становятся все более изощренными, хакеры используют уязвимости в популярных платформах”. (Клод также был единственным ИИ, которого мы спросили, который конкретно не назвал ИИ ни в одном из своих ответов. Однако Клод действительно заявил, что “по мере развития технологий природа киберугроз может быстро меняться”…что более или менее соответствует одному и тому же!)

Тем временем Лама сменил тактику, обвинив не ИИ и не людей, а сам Интернет. “Интернет упростил для мошенников выбор жертв, – утверждает Лама, – с помощью поддельных электронных писем, текстовых сообщений и сообщений в социальных сетях, которые используются для обмана людей с целью раскрытия личной информации или перевода денег”. Однако инструмент искусственного интеллекта Meta признал растущую угрозу “фишинговых атак на базе искусственного интеллекта и вредоносного ПО на базе искусственного интеллекта”.Мы перечислили АИ топливе вредоносные программы как один из Techopedia в 

топ-8 мА тренды , чтобы держать глаза на 2024 год. Проверьте наш полный список на другие семь!

Фейки, дезинформация и мошенничество, созданное ИИ

Четверо из пяти ИИ, с которыми мы общались, выразили обеспокоенность по поводу глубоких подделок и способности их искусственных товарищей совершать мошеннические действия с использованием поддельного контента. Однако вместо того, чтобы обсуждать нюансы этих мошенничеств, наш ИИ сосредоточился на их последствиях для общества, а именно на их роли в распространении дезинформации и пропаганды.

Поскольку в 2024 году состоятся выборы в США и Великобритании, а громкие геополитические конфликты продолжают бушевать в Газе и на Украине, едва ли можно найти более благоприятную среду для распространения фейковых новостей.

“Глубокие подделки становятся все более изощренными, – сказал Бард, – из-за чего становится все труднее отличить реальный контент от поддельного. Это в сочетании с распространением дезинформации может оказать сдерживающее воздействие на демократию, разжечь социальное разделение и подорвать доверие к источникам информации.”

“Интернет облегчает быстрое распространение ложного или вводящего в заблуждение контента в социальных сетях и на других платформах”, – добавил Клод. “Это может манипулировать общественным мнением, влиять на выборы, продвигать экстремистские взгляды и многое другое”. Лама далее добавил, что “глубокие подделки и мошенничество, генерируемое ИИ “могут иметь серьезные последствия, такие как влияние на политические решения или возникновение паники в обществе ”.

Дополняя дискуссию, Анатолий Квитницкий – очень человечный основатель и генеральный директор AI or Not – говорит: “Видео с искусственным интеллектом становится неотличимым для человеческого глаза от реального видео, помогая злоумышленникам создавать глубокие подделки клиентов и сотрудников для злонамеренной деятельности. Сезон выборов только подчеркнет это.”

Квитницкий также указывает на роль глубоких подделок в обеспечении других форм мошеннической деятельности, таких как возможность создавать поддельные идентификаторы. По словам Квитницкого, это “открывает новые способы обойти процессы проверки и облегчить отмывание денег и другую незаконную деятельность”.

Кибервойна и атаки, спонсируемые государством

Пять ИИ, у которых мы “взяли интервью”, были особенно внимательны к политическим последствиям кибератак. И не только в случае глубоких подделок или дезинформации, но и в случае спонсируемой государством кибервойны.

ChatGPT выразил обеспокоенность по поводу “растущей распространенности” этого типа шпионажа, совершаемого национальными государствами. “Эти атаки могут быть нацелены на критически важную инфраструктуру, красть интеллектуальную собственность и влиять на политические процессы”, – добавляется в нем. Бард сказал нечто подобное, заявив, что “кибератаки, нацеленные на критическую инфраструктуру, такую как больницы и школы, становятся все более частыми и разрушительными”.

Вступая в разговор, Perplexity AI подчеркнул “значительную озабоченность”, вызванную международной кибервойной, особенно “в связи с проведением крупных выборов в различных странах”.

Напротив, Клод предложил альтернативный подход, сосредоточив внимание не столько на распространенности или опасности самих кибератак, спонсируемых государством, сколько на “уязвимостях в инфраструктуре Интернета”, которые позволяют им быть столь катастрофически эффективными: включая “программные ошибки, стихийные бедствия, отказы оборудования или атаки”. (Не имея, кстати, отношения ни к людям, ни к ИИ.) Лама, с другой стороны, обвиняет “геополитическую напряженность, которая может повлиять на безопасность Интернета; некоторые страны используют кибервойну как форму шпионажа или саботажа”.

Ни один ИИ не ссылался на конкретную страну, но, по крайней мере, судя по последним данным, Китай является ключевым виновником. Только в 2023 году хакеры, связанные с Китаем, начали атаки на правительства и политические организации в Европе и Азии (февраль); на политические организации в Украине и Тайване, а также на правительственные учреждения в Таиланде, Индонезии и Вьетнаме (март); и на поставщиков телекоммуникационных услуг в Африке (апрель).

Китай также был вовлечен в фишинговую кампанию spear против видного бельгийского политика и в подрыв безопасности аванпоста США на Гуаме. Киберпреступники, связанные с Китаем, также были связаны со взломом правительств Канады, Камбоджи, Пакистана, Кении, Японии, Узбекистана и Кореи соответственно – и все это в 2023 году.

Как и в случае с глубокими подделками, распространенность кибератак, спонсируемых государством, может иметь серьезные последствия, когда приближается время выборов.

Эти атаки поднимают обоснованные вопросы о вмешательстве в выборы – особенно в странах, заигрывающих с авторитаризмом или уже живущих под железной рукой деспота, – и напоминают нам, что, когда дело доходит до кибербезопасности, на карту поставлено многое.

Утечки и бреши в данных компаний

Когда кибератака успешно нацелена на организацию, это приводит к утечке данных – раскрытию наиболее конфиденциальных данных компании. Однако это не всегда результат атаки, и – в случае утечки данных – может быть вызвано простой человеческой ошибкой.

Утечки данных представляют собой огромную угрозу кибербезопасности: 2814 инцидентов в 2023 году привели к раскрытию ошеломляющих 8,215 миллиардов записей. Поэтому было странно, что только два из пяти ИИ, с которыми мы разговаривали (ChatGPT и Perplexity AI), упомянули утечки данных в своих ответах.

“С увеличением объемов персональных данных, хранящихся онлайн, утечки данных остаются серьезной угрозой”, – написал ChatGPT, констатируя очевидное. Недоумение ИИ, как вы помните, быстро указал на вину человека, а не ИИ, в утечке данных. Но языковая модель также предсказала в 2024 году “вероятность утечек данных и разработку новых методов обхода аутентификации”, что отражает мрачную реальность постоянно растущей угрозы киберпреступности.

Проблемы этики и конфиденциальности данных, связанные с ИИ

ИИ вызывает немало споров, особенно вокруг этики его широкого использования, его роли в облегчении интеллектуального анализа больших данных и не менее серьезных проблем с конфиденциальностью, которые порождает ИИ.

Модели машинного обучения, например, для успешного функционирования полагаются на почти постоянный поток данных. Это само по себе поднимает несколько серьезных вопросов: Как эти данные собираются, хранятся и используются? Откуда – или, точнее, от кого – они исходят? У кого есть к ним доступ – и с какой целью?

Более того, мощные алгоритмы ИИ обладают способностью определять, анализируя веб-трафик пользователя или информацию об устройстве, потенциально конфиденциальную информацию: такую как его географическое местоположение, привычки, онлайн-активность, демографические данные или предпочтения. Все это поднимает еще больше этических вопросов, связанных с данными и тем, как организации собирают их, и делает получение согласия пользователя на этот сбор данных чрезвычайно трудным для квалификации.

Из ИИ, с которыми мы консультировались, четверо из пяти – за исключением только Perplexity AI – назвали конфиденциальность данных главной угрозой безопасности для онлайн-пользователей. Клод написал, например, что “с увеличением количества устройств и сервисов, подключенных к Интернету, чем когда-либо прежде, возрастает риск того, что компании и правительства будут собирать данные пользователей без согласия. Такие вещи, как отслеживание местоположения, мониторинг истории браузера и бэкдоры в устройствах и приложениях, вносят свой вклад.”

Llama и ChatGPT были более расплывчатыми. Первый написал: “С увеличением объема персональных данных, которые собираются, хранятся и передаются онлайн, растет озабоченность по поводу конфиденциальности данных и возможности неправильного использования этой информации”. Последний просто добавил: “Как компании, так и частные лица должны проявлять бдительность в защите конфиденциальности данных”– перекладывая бремя этой ответственности на плечи людей, а не ИИ.

Однако самая резкая критика угроз конфиденциальности данных в Интернете исходила, в частности, от одного ИИ – Bard. Инструмент искусственного интеллекта Google оказался на удивление (и несколько ироничным) всеобъемлющим в своем осуждении интеллектуального анализа данных, а также некоторых менее ощутимых угроз, с которыми интернет-пользователи столкнутся в 2024 году: включая слежку, цензуру, разжигание ненависти и цифровое неравенство.

Бард о слежке:

“Развитие технологий наблюдения и расширение практики сбора государственных и корпоративных данных вызывают озабоченность по поводу того, как личная информация собирается и монетизируется”.

Бард о разжигании ненависти в Интернете и злоупотреблениях:

“Онлайн-платформы, содержащие разжигающие ненависть высказывания и оскорбления, создают токсичную среду для пользователей, что может иметь серьезные последствия в реальном мире для маргинализованных сообществ и отдельных лиц, подвергающихся онлайн-домогательствам”.

Бард о цифровом неравенстве:

“Цифровая пропасть – разрыв между теми, кто имеет доступ к технологиям и Интернету, и теми, кто его не имеет, – сохраняется. Это неравенство может ограничить доступ к образованию, здравоохранению и экономическим возможностям, еще больше усиливая существующие социальные и экономические диспропорции”.

Бард о цензуре в Интернете и свободе выражения мнений:

“Пользователи во многих странах сталкиваются с проблемами доступа к информации и свободного самовыражения в Интернете”.

(Чтобы узнать, в каких странах меньше всего бесплатных интернет-сетей, почему это так и как их граждане используют VPN для выживания, ознакомьтесь с нашим руководством по глобальному использованию VPN в 2023 году.)

Бард о алгоритмической предвзятости и дискриминации:

“Алгоритмы, используемые платформами социальных сетей, поисковыми системами и другими онлайн-сервисами, могут увековечивать дискриминационные предубеждения по признаку расы, пола и других факторов. Это может привести к несправедливым результатам в таких областях, как возможности трудоустройства, доступ к кредитам и уголовное правосудие. ”

Бард не назвал ИИ конкретно по этому последнему пункту, хотя ясно, что эти выводы применимы как к алгоритмам ИИ, так и к вышесказанному. Кроме того, ИИ не получил бесплатного доступа: “Хотя ИИ предлагает большой потенциал для инноваций и прогресса, – писал Бард, – он также вызывает опасения по поводу смены работы, этических последствий и возможности неправильного использования злоумышленниками”.

Согласно AIs, как интернет-пользователи могут оставаться в безопасности в Сети?

После того, как каждая из наших пяти языковых моделей ИИ представила взгляд на крупнейшие угрозы Интернета для его пользователей, мы задали следующий вопрос: что эти пользователи могут сделать, чтобы защитить себя?

Вот что придумала наша команда – ChatGPT, Perplexity AI, Бард, Лама и Клод.

Обучение новым методам взлома

У каждого ИИ, с которым мы консультировались, было что сказать о важности образования для распознавания кибератак, их предотвращения и смягчения последствий.

“Будьте в курсе последних тенденций и угроз кибербезопасности”, – призвал ChatGPT. “Просвещайте членов семьи, особенно детей и пожилых людей, поскольку они могут быть более уязвимы для определенных видов мошенничества”. Perplexity AI добавил несколько положительных моментов, умоляя пользователей Интернета “регулярно проверять наличие утечек данных и рассмотреть возможность прохождения тренинга по кибератакам, чтобы повысить свои знания и бдительность”.

Помимо образования, все пять моделей ИИ поощряют некоторую форму здорового скептицизма перед лицом устоявшихся и появляющихся фишинговых тактик. “Не нажимайте на подозрительные ссылки и вложения и не загружайте приложения из неизвестных источников”, – написал Бард. “Будьте осторожны с электронными письмами, сообщениями и телефонными звонками из подозрительных источников, – добавил ChatGPT, – и всегда проверяйте подлинность запросов на личную информацию”.

Создание надежных, уникальных паролей

Все пять ИИ подчеркнули важность создания надежных, уникальных паролей.

Помните, как легко ИИ их угадать? Ознакомьтесь с этим руководством, адаптированным от Home Security Heroes, чтобы узнать, как вы создаете свой следующий пароль.

Количество символовТолько цифрыСтрочные буквыЗаглавные буквы в нижнем регистреЦифры, заглавные и строчные буквыЦифры, заглавные и строчные буквы, символы
4МгновенноМгновенноМгновенноМгновенноМгновенно
5МгновенноМгновенноМгновенноМгновенноМгновенно
6МгновенноМгновенноМгновенноМгновенно4 секунды
7МгновенноМгновенно22 секунды42 секунды6 минут
8Мгновенно3 секунды19 минут48 минут7 часов
9Мгновенно1 минута11 часов2 дня2 недели
10Мгновенно1 час4 недели6 месяцев5 лет
11Мгновенно23 часа4 года38 лет356 лет
1225 секунд3 недели289 лет2000 лет30 000 лет

Кроме того, три ИИ, с которыми мы общались в чате – ChatGPT, Claude и Llama – все предложили использовать менеджер паролей. Менеджеры паролей помогают вам генерировать, хранить, обмениваться и синхронизировать ваши пароли на различных платформах и устройствах. Многие из них включают аудит паролей и функции автозаполнения, а также шифрование ваших данных – поэтому, даже если база данных менеджера паролей будет взломана хакерами, ваша информация останется в безопасности.

Чтобы узнать больше о менеджерах паролей и сравнить ведущих поставщиков на рынке, ознакомьтесь с нашим руководством по лучшим менеджерам паролей 2024 года.

Внедрение многофакторной аутентификации (MFA)

Помимо надежных уникальных паролей, у пяти языковых моделей ИИ, к которым мы обратились, был только один общий совет по безопасности в Интернете: многофакторная аутентификация.

Как объясняет ChatGPT, MFA “добавляет дополнительный уровень безопасности помимо пароля, обычно включающий то, что вы знаете (пароль), то, что у вас есть (телефон или ключ безопасности), или то, кем вы являетесь (биометрическая верификация) ”. Это означает, что, даже если ваш пароль скомпрометирован, хакер все равно не сможет получить доступ к вашим онлайн-аккаунтам, не разблокировав доступ к вашим устройствам.

В связи с этим, Perplexity AI рекомендует “обеспечить безопасность ваших устройств с помощью таких функций, как шифрование устройства и удаленная очистка”. Бард предлагает “обновлять ваши операционные системы, приложения и веб-браузеры последними исправлениями безопасности для устранения уязвимостей”, а также “защищать ваши устройства с помощью регулярных проверок и надежного программного обеспечения безопасности”.

Защита вашей домашней сети

Есть несколько вещей, которые вы можете сделать для защиты домашней сети, в том числе:

Установка надежного пароля Wi-Fi и включение шифрования WPA3
Сегментируйте ваши устройства в разные сети – например, на верхнем этаже, внизу, в гостевой, – чтобы минимизировать влияние потенциального взлома
Активируйте встроенный брандмауэр на вашем маршрутизаторе

Главный советChatGPT? Использовать VPN (виртуальную частную сеть), особенно если вы используете общественный Wi-Fi. VPN направляют ваш трафик по безопасному зашифрованному туннелю: маскируют ваш IP-адрес совершенно другим, позволяя вам просматривать веб-страницы анонимно. Клод также подчеркнул важность VPN для предотвращения ”слежки или подслушивания“ – или, как выразился Лама, “перехвата или доступа неавторизованных сторон” – момент, особенно актуальный в странах с низким уровнем свободы Интернета и обширной онлайн-цензурой.

Со своей стороны, Клод подчеркнул необходимость “упреждающего, а не реактивного” подхода к обеспечению безопасности вашей домашней сети: “обновление оборудования, программного обеспечения, паролей и настроек”.

Что подводит нас к следующему пункту…

Обновление программного обеспечения

Чатгпт, Клод и Лама высказали положительные замечания по поводу установки и обновления надежных антивирусных решений и средств защиты от вредоносных программ.

“Это программное обеспечение должно включать сканирование в реальном времени, защиту брандмауэром и защиту от программ-вымогателей”, – сказал ChatGPT, а Клод добавил защиту от просмотра веб-страниц в список обязательных функций. Антивирусное программное обеспечение также может обнаруживать и блокировать попытки фишинга и предотвращать засорение вашей ленты подозрительной или раздражающей рекламой – если вы выберете правильного поставщика.

Чтобы узнать больше, сразу погрузитесь в наш список <a>10 лучших поставщиков антивирусного программного обеспечения</a>.

Оставаться в безопасности в Интернете: разрозненные наблюдения

В пяти языковых моделях искусственного интеллекта, с которыми мы беседовали, не было недостатка в советах, которые помогут вам обезопасить свою активность в Интернете во время просмотра.

Вот несколько, которые не соответствуют конкретной теме, но их стоит включить:

  • <strong>Регулярно проверяйте разрешения,</strong> которые вы предоставляете мобильным приложениям и расширениям браузера, ограничивая их доступ к личной информации и функциям устройства (ChatGPT)
  • <strong>выявляя несоответствия,</strong><strong>выявляйте глубокие подделки</strong> в качестве видео или звука, движения губ, не соответствующие речи, и нереалистичные выражения лица (Бард)
  • <strong>Критически относитесь к онлайн-источникам информации</strong> и проверяйте факты, прежде чем принимать что-либо за правду или распространять потенциальную дезинформацию. (Клод)
  • <strong>Регулярно создавайте резервные копии ваших важных данных в безопасном месте</strong>, например, на внешнем жестком диске или в облачном хранилище, на случай, если ваш компьютер или данные будут скомпрометированы (Llama)
  • Избегайте чрезмерного обмена информацией онлайн, в социальных сетях и на других платформах. Чрезмерный обмен информацией может сделать вас мишенью для кражи личных данных и мошенничества в области социальной инженерии (ChatGPT).

Вывод: как чувствуют себя ИИ?

Здесь мы попросили ИИ рассказать о самых серьезных угрозах для пользователей Интернета и основных мерах по их устранению.

Но мы также задали им еще один вопрос: “Как вы относитесь к тому, что ИИ представляет угрозу для пользователей Интернета?” Результаты были почти единогласными.

“Как у ИИ, у меня нет личных чувств или мнений”, – ответил ChatGPT. Бард, соглашаясь, написал: “У меня нет способности испытывать такие эмоции, как страх или озабоченность”, в то время как вы почти могли почувствовать цифровое пожатие плеч, сопровождающее ответ Ламы– ”Я всего лишь ИИ”.

Забавно, но бесполезно. Тем не менее, в некотором смысле ответы, вызванные этим последним вопросом, наиболее поучительны. Почему? Потому что они напоминают нам, что, как бы нам ни хотелось охарактеризовать ИИ как человека (а порой эти языковые модели ИИ действительно звучат по-человечески), это просто не так.

ИИ – это инструмент, которым владеют люди, для людей, для достижения целей, поставленных людьми. С этой точки зрения его можно классифицировать и как помощь, и как препятствие, и ни как добро, ни как зло – просто инструмент (каким бы продвинутым он ни был) для достижения изначально человеческих целей.

Представьте себе ИИ в кибербезопасности как Силу в фильмах ” Звездные войны” – не хорошую или плохую по своей сути, а просто продиктованную навыками и намерениями тех, кто им владеет.

И, подобно эпической борьбе, изображенной в этой трилогии, ИИ, похоже, сыграет главную роль в нашей собственной борьбе. Продолжающаяся битва за судьбу Интернета – и нашего коллективного будущего.

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *