12 января 2024 года американский интернет-журнал The Intercept обратил внимание, что в период с 10 января из политики OpenAI был удален явно прописанный запрет на использование инструментов компании в военных целях. В частности, изменение касается известной диалоговой системы с искусственным интеллектом (ИИ) ChatGPT.
При этом остается в силе запрет общего характера, не позволяющий использовать продукты и услуги компании для нанесения вреда себе и окружающим. В качестве примера в политике использования приводится «разработка и применение оружия».
В The Intercept обращают внимание, что уже есть прецеденты использования языковых моделей ИИ для ускорения подготовки документов военными и других сопутствующих боевой работе задач. Также отмечается, что применение ИИ уже отмечено в секторе Газа.
Для каких боевых и смежных целей может быть применен ИИ?
Во-первых, стоит вспомнить конкретные примеры. В 2019 году Управление перспективных исследовательских проектов Министерства обороны США (DARPA) запустило программу разработки ИИ для повышения эффективности применения истребителей в условиях ближнего боя Air Combat Evolution (ACE).
В 2022 году пресс-служба Dynetics сообщила, что компания выбрана DARPA для реализации второго этапа разработки ACE — AlphaMosaic. На этом этапе предполагается разработать систему, позволяющую одному пилоту управлять с помощью вспомогательных инструментов несколькими летательными средствами. В этой модели частные вопросы тактики воздушного боя ложатся на плечи программного обеспечения, ИИ в частности, а человек занимается картиной в целом.
Программа ACE вписана в более широкие военные программы США, такие как концепция мозаичного боя, многодоменные операции вооруженных сил и так далее.
Во-вторых, ИИ является одним из типов программных алгоритмов. С этой точки зрения он может быть рассмотрен в качестве средства автоматизации. Автоматизация же направлена на замену человека автоматом в тех видах деятельности, которые могут описаны в качестве рутинных — автоматизированы. Также под задачу автоматизации попадают относительно простые действия, но плохо производимые человеком в силу количественного фактора — слишком маленькие или большие обрабатываемые или измеряемые размеры, слишком большие цифры при расчете, необходимость в постоянном и неотрывном внимании длительное время, потребность в слишком высоких скоростях реакции и действия и так далее.
В рамках ближнего боя человек не способен конкурировать в ряде задач с потенциально зрелым ИИ как из-за скорости реакции, так и по причине таких факторов снижения функциональности человека, как высокие перегрузки, дезориентация при активном маневрировании. При этом в DARPA считают, что ближний воздушный бой содержит в себе конечный набор потенциальных действий, и соответствующую модель вполне можно обучить.
В такой логике задача нанесения удара относится к рутиной операции, подпадающей под автоматизацию. Причина автоматизации — выход на условия взаимодействия выше тех, которые может осуществить человек. Причем скорость реакции может оказаться более значимым фактором, чем сложность маневра.
Диалоговые и аналитические системы на базе ИИ могут быть использованы для деморализации потенциального противника в так называемых «PsyOps», подготовки специалистов, для помощи и анализа в разведывательных операциях, для ускорения обработки потока данных в глубоко интегрированных перспективных системах управления военной операцией. Не каждый такой сценарий может быть оценен как используемый непосредственно для нанесения вреда себе и другим.
Ускорение цикла обработки данных позволяет, в свою очередь сократить шаг цикла: сбор информации — анализ и принятие решения — осуществление принятого решения. С точки зрения современных американских концепций ведения боевых действий это позволяет завладеть стратегической инициативой и задавать правила игры.
Таким образом, применение ИИ как непосредственно в боевых задач, так и в задачах, являющихся смежными и не нацеленными на нанесение непосредственного вреда противнику, может оказать существенное влияние на ход боевых столкновений. Вместе с тем, это запускает новый виток гонки вооружений и открывает потенциальные поверхности для кибератак на выведение из строя или обман систем противника. При условии, что для подобного противодействия есть необходимая техника, компетенция и подготовленность.