Essent.press
Владимир Колдин

ИИ на острие гонки цифровых вооружений

Изображение: (сс) Ecole polytechnique
Искусственный интеллект
Искусственный интеллект

Рассуждения о том, что машина в будущем может заменить человека настолько, что он будет вовсе не нужен, не новы. Но развитие в последние годы нейросетей или, точнее, больших языковых моделей (LLM), которые совершенно некорректно стало принято называть искусственным интеллектом (ИИ), породило опасную иллюзию, что перспектива создания полноценного искусственного интеллекта стала вполне осязаемой. Так что же нового произошло в этой сфере?

Прежде всего, стоит отметить наметившийся перелом в риторике касательно безопасности применения ИИ и накладываемых на него ограничений. О необходимости развивать ИИ говорят давно, при этом обычно отмечают важность безопасности, чтобы при развитии нейросетей не были нарушены определенные границы. Но теперь заговорили о том, что нельзя ограничивать развитие ИИ, и что для дальнейшего развития этого сектора нужны дополнительные энергогенерирующие мощности, в том числе ядерные.

Знаковым событием в развитии нейросетей в последнее время стал саммит AI Action Summit, который прошел с 10 по 11 февраля в Париже. До этого он проходил в Великобритании в 2024 году и Южной Корее в 2023-м.

Самым жестким на саммите было выступление вице-президента США Джей Ди Вэнса. Его речь даже можно назвать агрессивной. Он заявил о беспокойстве Вашингтона тем, что в ряде стран власти задумались о введении чрезмерного регулирования в отношении американских технологических компаний. Политик назвал подобный подход ужасной ошибкой, которая может обернуться против тех государств, которые пойдут на этот шаг.

«Сейчас мы сталкиваемся с необычайной перспективой новой промышленной революции, сравнимой с изобретением парового двигателя. Но этого никогда не произойдет, если чрезмерное регулирование удерживает новаторов от риска, необходимого для продвижения», — сказал Вэнс.

Он пообещал, что американская администрация Дональда Трампа будет следить за тем, чтобы разработанные в США системы были свободны от идеологических предубеждений и цензуры. Вице-президент добавил, явно намекая на Китай, который также участвовал в саммите, что его беспокоят другие риски — те, которые могут возникнуть при сотрудничестве в сфере ИИ с «авторитарными» режимами. После выступления политик покинул мероприятие, не утруждая себя выслушиванием выступавших после него.

На том же саммите президент Франции Эммануэль Макрон сделал в своем выступлении оговорку о необходимости подумать о безопасности при развитии технологий ИИ, но одновременно призвал участников мероприятия упростить законодательство, регулирующее данную сферу, чтобы не проиграть конкурентную гонку. Он также предложил использовать для вычислительных мощностей, используемых для работы нейросетей, ядерную энергетику, которая во Франции еще сохранилась и чувствует себя вполне неплохо, несмотря на «зеленый» тренд в европейской экономике.

Этот тезис подтвердила и глава Еврокомиссии Урсула фон дер Ляйен, заявив, что нужно создать огромные вычислительные мощности в ЕС для обработки огромных массивов данных. По ее словам, следующим шагом в сфере ИИ будет создание так называемых гигафабрик — инфраструктуры для обучения ИИ-моделей. Она также отметила, что подобное планируют делать и в США, а потому нужно не допустить монополии.

Гендиректор Google Сундар Пичаи призвал не опасаться того, что новые технологии могут сделать жизнь хуже. По его мнению, эффект при повсеместном внедрении ИИ будет положительным, а масштаб изменений для человечества превысит последствия перехода на персональные компьютеры и появление массового доступного интернета.

Не обошлось и без ложки дегтя. О потенциальных угрозах от бесконтрольного развития нейросетей заявил гендиректор американской компании Anthropic Дарио Амодей. Он сравнил появление систем ИИ с возникновением нового государства с высокоинтеллектуальными жителями и заявил, что продвинутый искусственный интеллект представляет собой угрозу глобальной безопасности. При этом его опасения связаны в основном с тем, что лидерами применения данной технологии станут «авторитарные» режимы, употребив его во зло.

Таким образом, Амодей фактически развивал мысль Вэнса, подводя присутствующих к выводу о том, что ограничения в этой сфере нужны лишь для «неправильных» государств. А «правильные» демократические государства никак не должны ограничивать развитие нейросетей, чтобы их владельцы, по сути, получили в свои руки неограниченную власть над обществом. Это концепция так называемого надзорного капитализма, плавно перетекающего в технофеодализм. Чем это лучше пресловутых авторитарных режимов, не ясно, ну разве что тем, что из-под контроля «правильных» режимов ускользает часть глобуса, контролируемая «неправильными» режимами, с которыми придется договариваться и идти на уступки. В то время как можно весь глобус опутать своими «исключительно демократическими» нейросетями.

На саммите также выступил сопредседатель мероприятия премьер-министр Индии Нарендра Моди. Любопытно, но Макрон не пожал ему руку при встрече, сделав вид, что не заметил высокопоставленного гостя. Индийский политик призвал мир осознать грандиозные масштабы изменений, которые несет ИИ, и объединиться, чтобы не допустить возникновения угроз для человечества.

«ИИ развивается с беспрецедентными масштабом и скоростью, внедряясь еще быстрее. Кроме того, существует глубокая взаимозависимость между странами. Поэтому необходимы совместные глобальные усилия для создания системы управления и стандартов, которые поддерживают наши общие ценности, снижают риски и укрепляют доверие», — сказал Моди.

При этом индийский лидер хотел бы сочетать развитие IT-сферы с расширением внедрения «зеленой» энергетики. Это довольно странное заявление, так как европейские страны уже столкнулись с проблемами, решив перейти от использования углеводородов и АЭС к ветрякам и другим «зеленым» способам генерации энергии. Но возможно, Моди подразумевает, что ядерная энергетика тоже относится к «чистой» (хотя на этот счет есть разные точки зрения). Он также заявил о необходимости создавать нейросетевые модели, которые будут потреблять меньше энергии. А потребляют-то они дай боже, и чем дальше, тем больше, причем несопоставимо с выдаваемым результатом.

«Индия построила цифровую общественную инфраструктуру для 1,4 млрд человек с минимальными затратами. Она основана на открытой сети, регулировании и приложениях, модернизирующих экономику и жизнь людей. Наша архитектура защиты данных раскрыла их потенциал, сделав цифровую коммерцию доступной для всех. Это основа национальной миссии Индии по ИИ», — сказал индийский премьер-министр.

Одними декларациями дело не ограничилось. В ходе саммита Евросоюз объявил о запуске программы InvestAI аж на €200 млрд. Она направлена то, чтобы успешно конкурировать с США и Китаем в сфере искусственного интеллекта. Из оных средств €150 млрд планируется получить от инвесторов и направить часть этих средств на строительство гигафабрик. Франция запускает проект Current AI, в который решили вложить €400 млн, для поддержки ИИ-разработок в социальной сфере.

В итоговой декларации саммита его участники призвали к открытости, инклюзивности, прозрачности, этичности и безопасности технологий искусственного интеллекта. Документ предусматривает поддержку развивающихся стран в наращивании потенциала ИИ и создание глобального диалога для обмена опытом. Декларацию подписали представители 61 страны, при этом США и Великобритания ставить свою подпись отказались. А Россия в мероприятии, по понятным причинам, вообще не участвовала.

При этом в РФ также подняли вопрос о том, что для обучения моделей искусственного интеллекта требуется все больше электроэнергии, а уже наблюдается ее дефицит. 21 февраля директор по развитию технологий ИИ «Яндекса» Александр Крайнов на одной из сессий уральского форума «Кибербезопасность в финансах» заявил, что эта проблема касается и России.

Между тем американский бизнесмен Илон Маск объявил о создании третьего поколения языковой модели на основе искусственного интеллекта Grok. Он назвал Grok 3 умнейшим ИИ на Земле. Якобы эта модель показала впечатляющие способности к логическому рассуждению и превосходит все имеющиеся на данный момент аналоги.

«Это немного страшно. Это словно: „Вау, эта штука придумывает решения, которые ты даже не мог предвидеть. Они не очевидны“. Grok 3 был обучен с использованием максимальных вычислительных ресурсов и, я думаю, очень эффективно», — заявил предприниматель, выступая по видеосвязи на Всемирном правительственном саммите в Дубае.

Вскоре Маск и его компания xAI представили чат-бот Grok 3. Разработчики сервиса заявили, что новый чат-бот обладает вычислительными мощностями, которые в 10 раз превышают возможности предшествующей модели. Они продемонстрировали результаты тестов, проведенных в областях математики, естественных наук и программирования. Согласно этим данным, новая модель опережает аналоги Google Gemini, DeepSeek V3, Claude и GPT-4o.

Что ж, развитие технологий впечатляет. Но какой ценой оно обходится человечеству? Не в смысле денег, а в плане собственно человечности. Уже многие эксперты бьют тревогу, предупреждая, что искусственный интеллект создан для того, чтобы уничтожить интеллект естественный. Грубо говоря, машины «умнеют», а человек глупеет.

Интересные результаты совместного исследования по этой теме опубликовали американские ученые из Университета Карнеги — Меллона и компании Microsoft. Оказалось, что у людей, которые избыточно доверяли искусственному интеллекту при решении повседневных задач, «атрофируется» такой важнейший когнитивный навык, как критическое мышление. В исследовании участвовали 319 работников умственного труда, и, как выяснилось, многие практически перестали проверять результаты работы ИИ, слепо доверяя бездушной машине, как бы взявшей на себя бремя размышлений и творческого поиска. Они также менее творчески подходили к решению поставленных задач и предлагали меньше решений, чем те, кто полагается на собственный интеллект.

Конечно, нельзя абсолютизировать эти данные, но исследование показывает риск формирования «замкнутого круга». Для развития в новом задаваемом тренде нужно в значительной мере опираться на ИИ, при этом чем чаще люди на него опираются, тем больше они к этому привыкают и тем быстрее теряется способность критически мыслить. А это опять-таки порождает желание переложить задачи на электронного болвана-помощника. Получается, что люди, которым предстоит работать в этом цифровом авангарде, довольно скоро перестанут понимать принципы работы собственных инструментов. А как в таком случае развивать эти самые инструменты — вопрос не праздный. Поскольку существует риск оказаться в ловушке некомпетентности, когда инструмент окажется «умнее» своего пользователя и выйдет из-под контроля. И более того, компетенции инженеров будет недостаточно, чтобы исправить или скорректировать поведение зарвавшего инструмента. Но и отказаться от него будет невозможно, поскольку навык думанья своей собственной головой будет утрачен. В итоге при любом технологическом сбое человечество может банально откатиться в средневековье, а чудесные нейросети превратятся в груду железа и проводов.

При этом использование ИИ планируют упростить. Американский бизнесмен Сэм Альтман объявил о скором выпуске новинок чат-ботов: GPT-5 и GPT-4.5. GPT-5 будет интегрированной системой, она объединит разные выпущенные инструменты. То есть этот чат-бот будет способен работать и с текстом, и с голосовыми сообщениям, и с изображениями, а также проводить поиск, в том числе глубокое исследование.

«Мы хотим, чтобы ИИ „просто работал“ для вас; мы понимаем, насколько сложными стали наши модели и предложения продуктов. Мы ненавидим выбор модели так же, как и вы, и хотим вернуться к магическому унифицированному интеллекту», — написал Альтман в соцсети X.

Кстати, слово «магический» очень сильно отдает Средневековьем, не в смысле костров инквизиции, а недоступностью знания для широких народных масс. Впору говорить об отмене проекта «Просвещение» и наступлении новых темных веков. В плане мозгов, а не потребляемого электричества.

Но еще в декабре прошлого года была новость о проблемах при работе над GPT-5 из-за дороговизны обучения этой нейросети и нехватки высококачественных данных для обучения. То есть информации-то в открытом доступе не просто очень много, а слишком много, но не хватает подходящей для обучения ИИ. Чтобы его интеллектуальный уровень все же худо-бедно превосходил заурядного пользователя интернета, который обращается к нему за помощью. Возможно, что разработчики и найдут (или уже нашли) способ, как «довести до ума» новую версию бота. Но на данный момент есть ощущение, что они уже нащупали некий потолок развития данной технологии, в который рано или поздно упрутся и остальные разработчики, работающие в этой сфере.

Если проблему с дальнейшим обучением нейросетей не решат, то вырисовывается тревожная картина: искусственный интеллект так и не создали, но зато создали предпосылки для активной утраты интеллекта естественного. При отупении «цифровой элиты» и пользователей, подсевших на чат-боты, начнется реальный переход управления обществом к сверхсложным алгоритмам, принцип работы которых люди уже не будут понимать. А оспорить не смогут! И тем более не смогут предложить альтернативу. А если у вашего конкурента такие алгоритмы уже есть, и он функционирует эффективнее, то и вам придется внедрять аналогичные схемы управления у себя, чтобы не проиграть конкурентную борьбу.

Однако возникает ряд вопросов. Зачем вкладывать такие невероятные средства в создании гигафабрик? Зачем дата-центрам, специализирующимся на работе ИИ, нужно столько энергии, чтобы отдельно оговаривать необходимость специально возводимых именно для этого АЭС. В Европе из-за разрыва отношений с Россией явно наблюдается дефицит и дороговизна энергоресурсов, но и там говорят о необходимости тратить все больше ресурсов на работу нейросетей. Вопрос: где, деньги, Зин? Кто спонсор банкета и в чем его интерес?

Вряд ли воротилы бизнеса и лидеры государств действуют наугад. Они же явно хотят получить какой-то «профит» от таких вложений. Неужели расчет на то, что при невероятном наращивании мощностей получится некий качественный скачок? Грубо говоря, расчет на обезьяну из анекдота, которая, бесконечно ударяя по клавишам пишущей машинки, рано или поздно напишет необходимый текст? Или речь все же о чем-то более прагматичном?

Такие колоссальные ресурсы можно использовать для анализа совсем запредельных по объему потоков информации. Это могут быть, например, данные о поведении людей. Причем о поведении всех людей, до которых способна дотянуться «цифра». Анализ подобной информации можно использовать для слежки и даже для моделирования/прогнозирования их действий — как отдельных людей, так и крупных социальных групп. Учитывая оформившийся тренд сбора данных о людях в едином центре, технически это будет не такая уж и сложная задача.

Но могут быть и другие негативные последствия бесконтрольного развития и использования нейросетей. На одно из них впервые указала американская актриса Скарлетт Йоханссон. Ее возмутила информационная кампания против рэпера Канье Уэста, основанная на фейковых материалах. Изначально рэпер спровоцировал скандал, опубликовав в соцсетях серию постов с откровенно нацистскими лозунгами. Потом музыкант удалил их, но это породило волну критики в его адрес.

На фоне этого скандала в сети Интернет стали распространятся фейковые видео, где знаменитости позируют в футболках, на которой изображена рука, сложенная в неприличный жест, на которой нарисована звезда Давида. Также написана фамилия Канье, чтобы было понятно, кому это адресовано. В ролике «снялись» узнаваемые медийные персонажи: Стивен Спилберг, Марк Цукерберг, Вуди Аллен, Сэм Альтман и другие. Созданные цифровые модели незамысловато двигаются в кадре и ничего не говорят, но выглядят весьма натурально.

«Я еврейка, которая нетерпима к антисемитизму или разжиганию ненависти любого рода. Но я также твердо верю, что потенциал разжигания ненависти, умноженный на ИИ, представляет собой гораздо большую угрозу, чем любой человек, который берет на себя ответственность за это. Мы должны заявить о злоупотреблении ИИ, независимо от его посланий, или мы рискуем потерять связь с реальностью», — заявила Йоханссон в письме американскому правительству.

Хотя, судя по выступлению вице-президента США Вэнса в Париже, это обращение актрисы вряд ли возымеет эффект — ведь против ограничений, которые бы помешали развитию в сфере ИИ, высказался «целый вице-президент».

Резюмируя, отметим, что потенциал ИИ, вполне возможно, и переоценивают. Но при этом нейросети все активней интегрируются в нашу жизнь. При их использовании люди явно тупеют, следовательно, человечество все больше будет опираться на цифровых помощников, а значит все больше впадать в зависимость от них. А перспективы от использования этого инструмента злоумышленниками пока еще только проглядываются, но… последствия уже есть. Вполне возможно, человечество слишком легкомысленно и потребительски относится к ИИ, однако вкладывает в него совсем нешуточные средства.

Владимир Колдин
Свежие статьи