За последний год многие крупные эксперты уже без каких-либо купюр заявили о многофакторной опасности искусственного интеллекта. По их словам, роботизация может привести к ненужности человека во многих сферах жизни. Прежде всего, речь идет о производственных задачах. И это действительно так. Уже сейчас технологии заменяют все большее число работников низкой квалификации. Более того, в ближайшем будущем искусственный интеллект может заменить журналистов и даже людей творческой профессии. Как известно, книги, написанные ИИ, уже получают награды, а музыкальные произведения занимают верхние строчки рейтингов.
Но ровно такой же процесс вытеснения человека происходит и в военной сфере. При растущей доле использования дронов и искусственного интеллекта значение численности военнослужащих будет постоянно уменьшаться. А главную роль будут играть количество и эффективность дронов, способных действовать автономно.
В свою очередь изменившийся характер военных действий может привести к абсолютно новым правилам существования нашего мира.
Рой беспилотников под управлением ИИ
Главная мечта военных — это создание полностью управляемой искусственным интеллектом боевой группы, включающей в себя наземную, наводную и воздушную военную технику.
Активные разработки по данному направлению начались более десяти лет назад. И уже в октябре 2016 года министерство обороны США провело первые крупные испытания роя дронов с коллективным искусственным интеллектом, состоящего из 103 беспилотников.
Испытания были восприняты с большим энтузиазмом. Военные разработчики наперебой начали обсуждать то, как хорошо будет использовать ИИ не только для управления группой беспилотников, но и для сложной координации различными видами вооружения.
При этом за полгода до этих испытаний Center for a New American Security (CNAS) выпустил доклад Autonomous Weapons and Operational Risk, предупреждающий об опасности использования полностью автономных роев дронов. Эксперты считают, что просчитать все варианты поведения ИИ невозможно, и рой может выйти из-под контроля.
«Это может случиться из-за действий хакеров, манипуляций поведением дрона со стороны врага, неожиданных взаимодействий с окружающей средой или простой поломки и ошибки в программном обеспечении. Более того, по мере возрастания сложности систем становится все труднее проверить поведение системы во всех возможных условиях; количество потенциальных взаимодействий между системой и окружением просто слишком велико», — отметил один из авторов доклада, эксперт CNAS Пол Шарре.
Это и подобные предупреждения не остановили развитие боевого применения ИИ. Не было еще такого случая в истории, когда бы развитие оружия удерживалось увещеваниями. Тем более не может это случиться и теперь, когда мир входит в эпоху войн.
В апреле 2023 года США, Великобритания и Австралия провели учения, в ходе которых в рой были объединены беспилотники Blue Bear Ghost и Insitu CT220, наземные роботы Viking, самоходная артиллерийская установка FV433 Abbot, а также танк Challenger 2, бронемашины Warrior и БМП ОТ-90.
Испытания проводились Лабораторией оборонной науки и технологий Великобритании в рамках международной программы AUKUS Advanced Capabilities Pillar 2 («Компонент 2»). Напомним, военное соглашение AUKUS было подписано Австралией, Великобританией и Соединенными Штатами в сентябре 2021 года. Первый «Компонент» предусматривает поставку Австралии атомных подводных лодок. А в рамках «Компонента 2», который на Западе считается революционным, участники обязуются объединить свои военные разработки в сфере искусственного интеллекта, кибернетики, гиперзвукового оружия, квантовых вычислений, РЭБ и подводных беспилотников.
Главная заявленная цель проекта AUKUS — обогнать по инновационным военным разработкам Китай. Но в реальности разговор не только о противостоянии с Китаем и лидерстве в Индо-Тихоокеанском регионе, а, скорее, о глобальном военном лидерстве, основанном на новейших прорывных технологиях и прежде всего на использовании ИИ в дронах.
Опасная безопасность
Однако, продолжая разработки и постоянно увеличивая сложность изделий и независимость ИИ, западные лидеры пока не могут обойти молчанием предупреждения экспертного сообщества и явное скатывание мира в некую нелицеприятную антиутопию, наполненную роботами. Несмотря на фактически разрушенный миф о гуманистическом и демократическом Западе, они еще пытаются сохранить лицо.
А точнее, западные лидеры решили обернуть вполне обоснованные футуристические страхи себе на пользу.
AUKUS позиционирует себя не только лидером в разработке искусственного интеллекта, но и лидером в сфере безопасности. И американское, и британское руководство в свою очередь также изображает из себя радетелей за безопасность мира и гуманное использование ИИ.
В конце октября 2023 года Джо Байден подписал распоряжение, обязывающее коммерческих разработчиков делиться результатами исследований о безопасности ИИ с правительством США. Якобы власти не позволят использовать сверхсовременные разработки во вред человечеству.
А уже через несколько дней после появления данного указа, 1–2 ноября, в Великобритании прошел первый международный форум по безопасности использования искусственного интеллекта.
На круглом столе, где обсуждались риски, связанные с возможностями ИИ участники договорились «развивать международное сотрудничество и партнерства, направленные на обеспечение всеобщего доступа к преимуществам ИИ таким образом, чтобы сократить глобальное неравенство, а не расширять его».
Общий пафос форума заключался в том, что ИИ должно быть доступно всем и должно находиться под контролем. Главными контролерами, конечно, по идее организаторов, должны быть США и Великобритания. Тем более они уже создали институты безопасности ИИ.
Как получить преимущество в гонке ИИ
В реальности речь идет не о безопасности и равенстве, а о доминировании. Вашингтон уверен, что имеет больше финансовых и организационных возможностей для интеграции разработок ИИ в любые сферы, включая военную. Эксперты прямо заявляют, что открытость данного рынка в существующей ситуации пойдет США только на пользу, так как в настоящий момент страна не является глобальным монопольным лидером по инновационным исследованием.
Так, еще в 2019 году директор программы стратегических технологий CSIS Джеймс Эндрю Льюис заявил, что все передовые разработки «должны быть освобождены от контроля, поскольку открытая исследовательская система с большей вероятностью сохранит технологическое преимущество США». Предложение Льюиса касается во многом и внутреннего законодательства США, которое еще со времен холодной войны жестко контролирует все разработки, имеющие отношение к оборонной отрасли.
И предложенная на саммите концепция открытости и необходимости контроля за развитием ИИ исходит из такой же вполне прагматичной позиции Вашингтона. Дело не в безопасности, а в том, чтобы, во-первых, снять внутренние ограничения для американских разработчиков, которые всегда стремятся получить прибыль со своих разработок. Следовательно, нужно позволить им это делать, а не сдерживать этот процесс барьерами секретности и безопасности. А во-вторых, США хочет получать доступ к производителям других стран, так как инновационные технологии в XXI веке уже перестали быть достоянием ограниченного круга развитых стран.
Поэтому и дальше будут проходить встречи, где в самых гуманных красках будут рассуждать о сложности и опасности применения ИИ в дронах, а параллельно будут развивать любое боевое применение самых новейших разработок без оглядки на этическую проблематику.
США и их союзники хотят иметь не просто много вооружения, а много умного вооружения, которое позволит НАТО господствовать на любом военном театре, независимо от масштабности противника.
Обогнать Китай
В августе 2023 года министерство обороны США объявило о запуске еще одной инновационной программы Replicator. В рамках этого проекта Пентагон хотел бы поставить на вооружение США тысячи автономных дронов. И речь опять же идет о том, чтобы перегнать Китай. Но перегнать по-умному.
Заместитель министра обороны Кэтлин Хикс, входящая в число кураторов программы Replicator, признала, что в настоящий момент преимущество Пекина состоит в том, что он имеет «больше кораблей, больше ракет, больше людей». Но отвечать на эту мощь Вашингтон собирается не военной массой, а инновационными разработками. Защищая правильность такого подхода, Хикс указала на опыт боевых действий на Украине, где дешевые дроны порой приносили больше пользы, чем дорогостоящие танки.
В это же время калифорнийская оборонная компания Shield AI провела демонстрационный полет группы беспилотных самолетов V-Bat. Испытания проводились в сотрудничестве со специальным подразделением ВВС AFWERX. Роем управляло пилотное программное обеспечение Hivemind.
Уже в октябре президент Shield AI Брэндон Цэнг, выступая на ежегодной конференции Ассоциации армии США в Вашингтоне, заявил, что новая система роения дронов V-Bat Teams будет использована в проекте Replicator.
Также Цэнг прокомментировал массовое использование дронов на Украине. Как и представители Пентагона, он считает, что просто запустить волну дронов не всегда достаточно. При помощи ИИ эти дроны можно использовать намного эффективней.
«Вам нужна умная и доступная масса. Масса ради массы бесполезна, у нее очень низкая результативность», — отметил Цэнг.
Главная проблема — выбор цели
Беспилотные группы отличаются тем, что могут действовать без GPS и связи, поэтому их сложнее засечь и уничтожить. И в этом одна из их главных особенностей. Однако пока что самолеты V-Bat всё же действуют во взаимосвязи с человеком. Практически всё они выполняют сами. Человек только отдает команду на уничтожение цели. Но группа под управлением ИИ ищет эти цели и предлагает их оператору.
Правильный выбор цели является в настоящий момент одной из главных проблем, тормозящих использование ИИ в полностью автономном рое боевых дронов. Никто не может предсказать, как именно будет выбираться цель. Не возникнет ли ситуация, когда ИИ решит уничтожать всех подряд?
Этим вопросом сейчас занимаются все крупные разработчики.
Швеция входит в число крупнейших мировых производителей дронов. Производством дронов и разработкой ИИ занимается здесь компания Saab. И после размещения на ее территории 17 американских военных баз, а также общей милитаризации прибалтийско-скандинавского региона, значение этих разработок значительно возрастает.
Как мы уже говорили, мечта военных разработчиков состоит в том, чтобы создать полностью автоматические роботизированные системы. Чтобы группу дронов отпустить в «свободное плавание», нужно позволить ИИ самому обучаться. То есть для выполнения задач, которым он не был обучен, нужно использовать машинное обучение. Здесь возникает множество сложных вопросов и буквально новое поле информационной войны.
Как обучать боевой ИИ
Группа экспертов из Шведского института оборонных исследователей (FOI) провела испытания ИИ и опубликовала в августе прошлого года отчет «Атака и обман военных систем искусственного интеллекта».
По словам исследователя отдела киберзащиты и технологий C2 FOI и одного из авторов доклада Бьерна Пельцера, большой проблемой при машинном обучении является информация, которую использует ИИ. То есть, если перед роем дронов стоит задача уничтожить танки, то нужно обучить ИИ на множестве изображений танков и других транспортных средств, чтобы детектор изображений научился их различать и определять. При этом результат обучения очень сильно зависит от получаемой информации.
«Данными обучения можно манипулировать или подделывать их в расчете на то, что злоумышленник воспользуется ими. Мы проводили тесты, в которых отравляли изображения, используемые для обучения, так что некоторые танки ошибочно классифицировались как автомобили», — отмечает Пельцер.
Кончено, наиболее эффективно такое «отравление» будет работать, если противник знает систему машинного обучения, на которую необходимо оказать влияние, и может ее либо взломать, либо каким-то образом подсунуть необходимую информацию. И для этого нужны крупные центры кибербезопасности и соответствующие специалисты высокого класса. Но кроме этого противник может «отравить» информацию, т. е. буквально загрузить в интернет неверную информацию, используя которую, машина научится неверно определять цели. Все это порождает огромное количество новых задач на информационном поле, связанных и с чистотой информации, и с независимостью интернета, и пока еще непонятной логикой машинного обучения.
Итог
Скорее всего, разработчики тем или иным способом обойдут эти вопросы и попробуют любые изделия в деле. Благо горячих конфликтов в мире достаточно.
Человек же, как и в других случаях, будет выдавливаться из этой сферы. Уже сейчас эксперты с упоением рассказывают о том, что машина обучает себя лучше, чем человек, так как учится на своих высокоскоростных реакциях и сложных операциях, недоступных человеческому организму. Поэтому уж очень заманчивым выглядит возможность обучать рои дронов, управляемых ИИ, именно на поле боя.
А после того, как технологии достигнут определенного уровня, и численность человеческих ресурсов будет вторична по отношению к качеству и обученности умных убийц, мир изменится радикально. Обладатель наиболее эффективного оружия сможет выигрывать войны, которые сейчас кажутся нереальными.
И какой-нибудь, например, прибалтийский или скандинавский регион сможет стать вполне серьезным полем битвы, несмотря на ограниченное количество людских ресурсов. Не зря НАТО провидит здесь крупнейшие учения, строит линию обороны и размещает десятки военных баз.