Презентация передовых версий искусственного интеллекта крупными мировыми технологическими компаниями, такими как OpenAI GPT-4o и Google Gemini 1.5 Pro, в мае 2024 года ознаменовала значительный скачок в интеллектуальных функциях, направленных на оптимизацию взаимодействия с пользователями. Однако наряду с этими успехами происходит эскалация сценариев онлайн-мошенничества.
Экспоненциальный рост угроз кибербезопасности
Во время недавнего семинара заместитель министра информации и коммуникаций Вьетнама Фам Джок Лонг обсудил постоянно растущие случаи кибератак, которые становятся все более изощренными и комплексными. Этот рост, основанный на искусственном интеллекте, усиливает потенциальные угрозы, с которыми сталкиваются пользователи, позволяя преступникам с легкостью создавать новые вредоносные программы и сложные аферы.
В отчете Национального агентства кибербезопасности подчеркивается высокая стоимость киберрисков, связанных с искусственным интеллектом, в размере глобального ущерба более 1 трлн долларов США. Только Вьетнам пострадал от финансовых последствий на сумму от 8000 до 10 000 млрд донгов. В настоящее время использование искусственного интеллекта для подделки голосов и черт лица в мошеннических целях быстро растет.
По прогнозам, к 2025 году может происходить около 3000 кибератак в секунду в сочетании с 12 новыми видами вредоносного ПО и 70 уязвимостями каждый день.
Технология глубокой подделки расширяет арсенал криминальных инструментов
Нгуен Ху Гиап, директор BShield, которая предлагает решения для обеспечения безопасности приложений, отмечает, что создать поддельные изображения и голоса несложно при нынешних достижениях в области технологий искусственного интеллекта. Злоумышленники могут легко получить данные пользователей, которыми открыто делятся в социальных сетях или с помощью обманных тактик, таких как онлайн-собеседования при приеме на работу. Моделирование BShield продемонстрировало, как мошенник может вставить существующее лицо из видеозвонка в поддельное удостоверение личности, объединить его с функционирующим телом, чтобы обмануть системы eKYC, а затем быть распознанным как реальный человек.
С точки зрения пользователей, специалист по ИТ Нгуен Тхан Чунг из Хошимина выражает обеспокоенность по поводу легкости, с которой злоумышленники могут использовать ИИ, такие как chatGPT, для генерации фишинговых электронных писем, имитирующих законное общение от банков или авторитетных организаций, иногда содержащих вложения вредоносного программного обеспечения, способного скомпрометировать неосторожного кликера.
Важные вопросы и ответы:
– Как рост угроз кибербезопасности, вызванный искусственным интеллектом, влияет на предприятия и частных лиц? С помощью продвинутого искусственного интеллекта киберпреступники могут выполнять сложные атаки, которые могут привести к краже конфиденциальных данных, финансовым потерям и ущербу репутации. Как предприятия, так и частные лица становятся все более уязвимыми к этим рискам, требуя повышенных мер безопасности и осведомленности.
– Какую роль технология deepfake играет в рисках кибербезопасности? Технология Deepfake, которая создает убедительные поддельные изображения и голоса, представляет существенные риски, поскольку может использоваться для выдвижения себя за других людей, манипулирования восприятием и содействия мошенничеству. Его доступность вызывает растущую озабоченность в области кибербезопасности.
– Каковы проблемы в борьбе с киберугрозами, генерируемыми искусственным интеллектом? Киберугрозы, генерируемые искусственным интеллектом, часто сложны и могут быстро развиваться, что затрудняет их обнаружение и реагирование. Одна из основных проблем заключается в том, чтобы меры безопасности опережали эти растущие угрозы. Быстрые темпы создания вредоносных программ и использования искусственного интеллекта преступниками требуют постоянного технологического и процедурного совершенствования средств защиты кибербезопасности.
Ключевые проблемы и противоречия:
– Этические последствия: Разработка ИИ, который потенциально может быть использован не по назначению, поднимает этические вопросы об ответственности создателей и необходимости нормативных актов и механизмов контроля для предотвращения злоупотреблений.
– Проблемы конфиденциальности: По мере того, как ИИ становится все более интегрированным с персональными данными, повышается риск нарушений конфиденциальности, что приводит к спорам по поводу сбора данных, согласия и баланса между преимуществами технологий и правами на неприкосновенность частной жизни.
– Нормативная база: Создание всеобъемлющей глобальной нормативной базы для управления двойным использованием искусственного интеллекта в законных и злонамеренных целях является сложной задачей, учитывая различия в правовых стандартах разных стран.
Преимущества и недостатки:
– Преимущества искусственного интеллекта следующего поколения: Усовершенствованная технология искусственного интеллекта может произвести революцию во многих отраслях промышленности за счет повышения эффективности, улучшения анализа данных и персонализации услуг. Он также может помочь в более эффективном обнаружении киберугроз и реагировании на них.
– Недостатки искусственного интеллекта следующего поколения: Повышение сложности технологий искусственного интеллекта также означает более совершенные инструменты для киберпреступников, что приводит к усложнению и усложнению обнаружения киберугроз. Более того, серьезную озабоченность вызывает потенциальное неправильное использование искусственного интеллекта в неэтичных целях.
Соответствующие OpenAI и Google – компании, активно участвующие в разработке и внедрении продвинутого искусственного интеллекта, который имеет отношение к теме рисков кибербезопасности, связанных с технологиями искусственного интеллекта следующего поколения. Однако обязательно ссылайтесь на подлинные источники, чтобы предотвратить дезинформацию и быть в курсе последних событий в отрасли.