В начале 2023 года произошел инцидент, который может иметь серьезные последствия для развития искусственного интеллекта (ИИ) и национальной безопасности США. Согласно расследованию, проведенному The New York Times, неизвестный хакер проник во внутренние системы обмена сообщениями OpenAI – компании, создавшей знаменитый чат-бот ChatGPT.
Детали взлома
Хакеру удалось получить доступ к онлайн-форуму, где сотрудники OpenAI обсуждали новейшие технологии компании в области ИИ. Хотя системы, непосредственно содержащие код и наработки по искусственному интеллекту, остались нетронутыми, сам факт проникновения вызвал серьезную обеспокоенность как внутри компании, так и за ее пределами.
Реакция руководства OpenAI
Руководство OpenAI сообщило о взломе сотрудникам на общем собрании в офисе компании в Сан-Франциско в апреле 2023 года, а также проинформировало совет директоров. Однако было принято решение не предавать инцидент огласке, так как данные клиентов и партнеров компании не были затронуты. Руководство посчитало, что хакер действовал в одиночку и не имел связей с иностранными правительствами, поэтому не стало информировать ФБР или другие правоохранительные органы.
Внутренние разногласия и опасения
Некоторые сотрудники OpenAI выразили серьезную обеспокоенность тем, что похищенная информация может оказаться в руках иностранных государств, в частности Китая, что потенциально может угрожать национальной безопасности США. Эти опасения особенно ярко проявились в действиях Леопольда Ашенбреннера, технического менеджера программы, направленной на предотвращение потенциального вреда от будущих технологий ИИ.
Случай Леопольда Ашенбреннера
После утечки Ашенбреннер направил совету директоров OpenAI служебную записку, в которой утверждал, что компания не предприняла достаточных мер для защиты своих секретов от иностранных противников, включая китайское правительство. Последствия этого шага оказались для Ашенбреннера плачевными – он был уволен по обвинению в утечке информации за пределы компании. Сам Ашенбреннер считает свое увольнение политически мотивированным и намекает на неспособность OpenAI защитить собственные секреты.
Представитель OpenAI Лиз Буржуа отрицает связь между увольнением Ашенбреннера и его заявлениями о безопасности, подчеркивая несогласие компании с его характеристикой их системы безопасности.
Контекст развития ИИ и связанные риски
Инцидент с OpenAI происходит на фоне стремительного развития технологий искусственного интеллекта. ChatGPT, разработанный OpenAI, считается на сегодняшний день наиболее продвинутым чат-ботом с ИИ. Его последняя версия, GPT-4, способна распознавать не только текст, но и голос с видео.
Многие эксперты и визионеры в области технологий говорят о скором появлении AGI (Artificial General Intelligence) – искусственного интеллекта, сопоставимого по возможностям с человеческим разумом. Однако развитие ИИ вызывает не только оптимизм, но и серьезные опасения. В марте 2023 года группа известных технологических предпринимателей и экспертов, включая Илона Маска, подписала открытое письмо с призывом приостановить разработку и обучение мощных нейросетей на шесть месяцев, обратив внимание на потенциальные риски систем ИИ, сопоставимых по интеллекту с человеком.
Безопасность и регулирование
В ответ на растущие опасения OpenAI и другие компании усиливают меры безопасности. OpenAI недавно создала Комитет по безопасности и защите для изучения рисков, связанных с будущими технологиями. В комитет вошел Пол Накасоне, бывший генерал армии, возглавлявший Агентство национальной безопасности и Кибернетическое командование США.
Федеральные чиновники и законодатели штатов также продвигают идею государственного регулирования, которое запретило бы компаниям выпускать определенные технологии ИИ и предусматривало бы многомиллионные штрафы в случае причинения вреда их технологиями.
Международный контекст
Китайские компании разрабатывают системы, почти не уступающие по мощности ведущим американским системам. По некоторым показателям Китай обогнал США как крупнейший производитель талантов в области ИИ, генерируя почти половину ведущих исследователей ИИ в мире.
Клеман Деланге, генеральный директор Hugging Face, компании, размещающей многие проекты ИИ с открытым исходным кодом, отмечает: “Не будет преувеличением сказать, что Китай вскоре может обогнать США в этой области”.
Заключение
Взлом систем OpenAI поднимает ряд важных вопросов о безопасности разработок в области искусственного интеллекта и потенциальных рисках, связанных с утечкой информации. Этот инцидент может стать катализатором для усиления мер безопасности не только в OpenAI, но и в других компаниях, работающих над развитием ИИ.
Кроме того, этот случай подчеркивает необходимость более широкого обсуждения этических аспектов развития ИИ и потенциальных угроз национальной безопасности, связанных с этими технологиями. Возможно, настало время для более тесного сотрудничества между технологическими компаниями и государственными структурами в вопросах регулирования и защиты критически важных разработок в области искусственного интеллекта.
В конечном итоге, инцидент с OpenAI служит напоминанием о том, что по мере развития технологий ИИ растут не только их возможности, но и связанные с ними риски. Балансирование между инновациями и безопасностью становится ключевой задачей для всей индустрии искусственного интеллекта и национальной безопасности в целом.