Влияние искусственного интеллекта на ландшафт кибербезопасности
Интервью

Влияние искусственного интеллекта на ландшафт кибербезопасности

Генеративный ИИ не просто обучает киберпреступников новым трюкам — он также облегчает любому человеку стать плохим парнем, сказала глава Агентства кибербезопасности и инфраструктурной безопасности Джен Истерли.

Почему это важно: Киберпреступники с ИИ в их распоряжении смогут делать больше всего: от фишинга и рассылки спама до актов шантажа и терроризма, кампаний дезинформации и саботажа выборов.

  • “Я думаю, это поможет менее искушенным людям на самом деле лучше делать некоторые плохие вещи, которые они хотят делать”, – сказал Истерли Axios в интервью в кулуарах конференции RSA во вторник.
  • “ИИ усилит угрозы кибератак — более изощренного скрытого фишинга, клонирования голоса, глубоких подделок, иностранного вредоносного влияния и дезинформации”, – сказал Истерли.

Контекст: Стремительный характер ИИ добавляет новые уровни риска и неопределенности.

  • “Я смотрю на ИИ: как быстро он развивается, насколько он непредсказуем, насколько он мощный”, – сказал Истерли. “Мощный инструмент создаст мощное оружие; мы можем просто сделать такое предположение”.

Общая картина: Организация, которой руководит Истерли — одно из новейших федеральных агентств — не имеет собственных регулирующих полномочий в отношении частного бизнеса.

  • Учитывая это, подход Easterly заключался в работе с предприятиями внутри и за пределами технологической отрасли, чтобы улучшить их методы обеспечения кибербезопасности.

Главные новости: На прошлой неделе CISA объявила о соглашении “безопасность по дизайну” с десятками технологических компаний, включая Microsoft, Cisco, IBM, Scale AI и другие.

  • The pledge включает в себя множество лучших практик повышения надежности паролей по умолчанию, внедрения многофакторной аутентификации и сокращения числа целых классов уязвимостей.
  • Хотя само обязательство не является обязательным, Истерли отметил, что оно включает требования к отчетности, и простое привлечение компаний к ответственности может стать позитивным фактором. “Да, это добровольно, но в радикальной прозрачности есть преимущество”.

Быстро наверстываем упущенное: Прежде чем приступить к своей роли руководителя CISA в 2021 году, Истерли служила в армии, работала в сфере борьбы с терроризмом при администрации Обамы, а затем была топ-менеджером по кибербезопасности в Morgan Stanley.

  • CISA, входящая в состав Министерства внутренней безопасности, взяла на себя широкую роль в области кибербезопасности, возложенную Конгрессом в 2018 году. Его первый директор Кристофер Кребс был уволен бывшим президентом Трампом после поражения Трампа на выборах 2020 года, после того как Кребс подтвердил честность выборов.

Увеличьте: Истерли и ее коллеги провели много времени с должностными лицами избирательных комиссий, готовясь к различным киберугрозам, в том числе вызванным ИИ.

  • Что касается 2024 года, Истерли сказала, что она довольно хорошо оценивает способность самого избирательного аппарата противостоять любым атакам.
  • “Избирательная инфраструктура более безопасна, чем когда-либо прежде”, – сказал Истерли. “[ИИ] принципиально не привнесет новых угроз в эти выборы”.
  • Однако Истерли сказала, что она обеспокоена тем, как генеративный ИИ может усилить существующие усилия по посеву недоверия.
  • “Мы знаем, что такие противники, как Россия, Китай, Иран и другие, намерены вмешиваться, манипулировать, влиять на наши выборы, чтобы подорвать доверие американцев к честности этих выборов и разжечь еще больше межпартийных разногласий”, – сказала она. “И мы знаем, что эти усилия будут усугублены возможностями искусственного интеллекта”.

Между строк: Усложняет ситуацию отсутствие глобальных правил относительно того, что является актом войны, а что нет.

  • “У нас есть нормы, верно? Но, в конце концов, нормы – для хороших парней”, – сказал Истерли. “Мы знаем, что китайские киберпреступники проникают в нашу гражданскую критически важную инфраструктуру для проведения разрушительных атак”.

Истерли обеспокоен тем, что новые инструменты искусственного интеллекта дополняют и без того напряженный ландшафт безопасности.

  • В течение четырех десятилетий мы видели, что происходит, когда “у вас есть Интернет, полный вредоносных программ, программное обеспечение, полное уязвимостей, и социальные сети, полные дезинформации”, – сказал Истерли.

Да, но: ИИ также может иметь преимущества при надлежащем использовании теми, кто хочет повысить безопасность систем, включая поиск уязвимостей до выпуска программного обеспечения или определение новых методов защиты старых систем, которые все еще используются.

  • “ИИ может стать мощным средством, помогающим нам справляться с устаревшими технологиями, которые являются бичом сообщества безопасности”, – сказал Истерли.
  • “Я искренне оптимистка”, – сказала она. “Мой путь начался, когда я был подполковником армии в Ираке, и мы использовали технологии, позволяющие помогать войскам на местах находить технологии производителей бомб. Итак, я увидел силу технологий для спасения жизней “.

Что дальше: Простое улучшение существующих практик в области исправлений, надежных паролей и других мер безопасности, вероятно, является лучшей защитой от атак, основанных на ИИ или нет, сказала она.

Hi, I’m admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *