Ожидается рост глобальной угрозы вымогательства с появлением искусственного интеллекта, предупреждает NCSC
Новости

Ожидается рост глобальной угрозы вымогательства с появлением искусственного интеллекта, предупреждает NCSC

В новой оценке основное внимание уделяется тому, как искусственный интеллект повлияет на эффективность киберопераций и последствия киберугроз в течение следующих двух лет.

  • Ожидается, что искусственный интеллект усилит глобальную угрозу программ-вымогателей, сообщает Национальный центр кибербезопасности GCHQ
  • В новом отчете говорится, что искусственный интеллект почти наверняка увеличит объем и воздействие кибератак в ближайшие два года
  • NCSC призывает организации и частных лиц принять меры защиты

Ожидается, что искусственный интеллект (ИИ) увеличит глобальную угрозу программ-вымогателей в течение следующих двух лет, предупредили кибер-руководители в новом отчете, опубликованном сегодня (среда).

В оценке краткосрочного влияния искусственного интеллекта на киберугрозу, опубликованной Национальным центром кибербезопасности (NCSC), входящим в состав GCHQ, делается вывод, что искусственный интеллект уже используется в злонамеренной кибердеятельности и почти наверняка увеличит объем и воздействие кибератак, включая программы–вымогатели, в ближайшей перспективе.

Среди других выводов, сделанных в отчете, предполагается, что, снижая барьер входа для начинающих киберпреступников, наемных хакеров и хактивистов, искусственный интеллект позволяет относительно неквалифицированным субъектам угрозы осуществлять более эффективный доступ и операции по сбору информации. Этот расширенный доступ в сочетании с улучшенным таргетингом на жертв, предоставляемым искусственным интеллектом, будет способствовать росту глобальной угрозы программ-вымогателей в ближайшие два года.

Программы-вымогатели по-прежнему остаются наиболее острой киберугрозой, с которой сталкиваются организации и предприятия Великобритании, поскольку киберпреступники адаптируют свои бизнес-модели для повышения эффективности и максимизации прибыли.

Для борьбы с этой повышенной угрозой правительство инвестировало 2,6 миллиарда фунтов стерлингов в рамках своей Стратегии кибербезопасности для повышения устойчивости Великобритании, при этом NCSC и частный сектор уже внедряют использование искусственного интеллекта для повышения устойчивости к кибербезопасности за счет улучшенного обнаружения угроз и продуманной защиты.

В Декларации Блетчли, принятой на Саммите по безопасности искусственного интеллекта в Великобритании в Блетчли-парке в ноябре, также объявлено о первых в своем роде глобальных усилиях по управлению рисками, связанными с frontier AI, и обеспечению его безопасной и ответственной разработки. В Великобритании в секторе искусственного интеллекта уже занято 50 000 человек и он вносит в экономику 3,7 миллиарда фунтов стерлингов, а правительство стремится обеспечить развитие национальной экономики и рынка труда благодаря технологиям, как указано в пяти приоритетах премьер-министра.

Генеральный директор NCSC Линди Кэмерон заявила:

“Мы должны гарантировать, что мы одновременно используем технологии искусственного интеллекта с учетом их огромного потенциала и управляем связанными с ними рисками, включая их влияние на киберугрозу.

“Растущее использование искусственного интеллекта в кибератаках носит эволюционный, а не революционный характер, что означает усиление существующих угроз, таких как программы-вымогатели, но не изменение ландшафта рисков в ближайшей перспективе.

“Поскольку NCSC делает все возможное для обеспечения безопасности систем искусственного интеллекта, мы призываем организации и частных лиц следовать нашим рекомендациям по защите от программ-вымогателей и гигиене кибербезопасности, чтобы укрепить свою защиту и повысить устойчивость к кибератакам”.

Анализ NCA показывает, что киберпреступники уже начали разрабатывать криминальный генеративный искусственный интеллект (GenAI) и предлагать “GenAI как услугу”, делая улучшенные возможности доступными для всех, кто готов платить. Тем не менее, как ясно из нового отчета NCSC, эффективность моделей GenAI будет ограничена как количеством, так и качеством данных, на основе которых они обучаются.

Растущая коммерциализация возможностей с поддержкой искусственного интеллекта отражает предупреждения из отчета , совместно опубликованного двумя агентствами в сентябре 2023 года, в котором описывается профессионализация экосистемы программ-вымогателей и переход к модели “программное обеспечение-вымогатель как услуга”.

По данным NCA, маловероятно, что в 2024 году другой метод киберпреступности заменит программы-вымогатели из-за финансовых вознаграждений и устоявшейся бизнес-модели.

Джеймс Бэббидж, генеральный директор по угрозам Национального агентства по борьбе с преступностью, сказал:

“Программы-вымогатели по-прежнему представляют угрозу национальной безопасности. Как показано в этом отчете, угроза, вероятно, возрастет в ближайшие годы из-за достижений в области искусственного интеллекта и использования этой технологии киберпреступниками.

“Сервисы искусственного интеллекта снижают барьеры для входа, увеличивая число киберпреступников, и повысят их возможности за счет увеличения масштаба, скорости и эффективности существующих методов атак. Мошенничество и сексуальное насилие над детьми также особенно подвержены риску.

“NCA продолжит защищать общественность и снижать серьезную криминальную угрозу для Великобритании, в том числе путем нацеливания на преступное использование GenAI и обеспечения того, чтобы мы сами внедряли технологию там, где это безопасно и эффективно”.

Эффективная подготовка имеет решающее значение для предотвращения атак программ-вымогателей. Выполнение рекомендаций NCSC, таких как простые меры защиты, изложенные в его руководстве по борьбе с вымогателями, поможет организациям Великобритании снизить вероятность заражения.

Большинство инцидентов с программами-вымогателями обычно являются результатом того, что киберпреступники используют плохую кибергигиену, а не сложные методы атак. В 10 шагах NCSC по обеспечению кибербезопасности и главных советах по обеспечению безопасности в Интернете указано, как организации и отдельные лица соответственно могут защитить себя в киберпространстве.

В отчете о краткосрочном влиянии искусственного интеллекта на киберугрозу описываются дальнейшие способы, с помощью которых искусственный интеллект повлияет на эффективность киберопераций и киберугрозу в течение следующих двух лет, включая социальную инженерию и вредоносное ПО

Источник

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *