
Нейросети, вернее, их наиболее распространенный подвид — большие языковые модели (LLM), стремительно трансформируют все сферы нашей жизни, от повседневного общения до мировой геополитики. Хотя LLM называют искусственным интеллектом (ИИ) совершенно необоснованно, но эти модели, как утверждают их разработчики, уже могут лечить депрессию и даже самостоятельно находить прорывные решения в науке. Однако за впечатляющими и будоражащими воображение возможностями скрываются весьма тревожные тенденции: так, LLM-модели довольно успешно учатся обманывать людей, становятся орудием совершения преступлений в руках хакеров и инструментом тотальной слежки за ничего не подозревающими гражданами. В этой статье мы рассмотрим наиболее знаковые события в области ИИ за последний месяц.
Нейросети всё активнее входят в жизнь человека
В марте 2025 года приложение ChatGPT впервые возглавило мировой рейтинг по количеству скачиваний. Оно обогнало соцсети Instagram (организация, деятельность которой запрещена в РФ) и TikTok. По данным аналитической компании Appfigures, число установок этого чат-бота на стационарных и мобильных устройствах пользователей выросло на 28% по сравнению с февралем и составило около 46 млн загрузок за месяц. Это максимальный показатель с момента запуска приложения.
Евросоюз 9 апреля представил амбициозный «План действий ИИ-континента» для укрепления позиций европейских разработчиков в глобальной конкуренции с США и Китаем. В рамках инициативы планируется создать сеть специализированных производств («гигафабрик»), лабораторий данных и службу правовой поддержки, чтобы облегчить европейским стартапам доступ к ресурсам и соблюдение требований «Закона об ИИ». Этот шаг стал ответом на критику со стороны местных технологических компаний, жалующихся на чрезмерное регулирование отрасли. Схожие меры готовят и власти Великобритании.
В апреле президент РФ Владимир Путин подписал перечень поручений правительству по внедрению ИИ в различные сферы деятельности. В частности, до 1 августа необходимо подготовить предложения, как активнее использовать искусственный интеллект при создании инновационных материалов. Также необходимо представить проект по организации роботизированных исследовательских лабораторий, строительству национального суперкомпьютерного центра, расширению мер господдержки для российских производителей и внедрению технологий 3D-печати в промышленности.
Новые достижения нейросетей
Команда исследователей из Института Макса Планка создала ИИ-модель Urania, разработавшую проекты детекторов гравитационных волн, которые в некоторых случаях превосходят аналоги, созданные людьми. В отличие от традиционных подходов, основанных на теориях Эйнштейна, алгоритм сгенерировал принципиально новые конструктивные схемы, значительно повышающие чувствительность оборудования. Команда ученых выбрала и опубликовала 50 лучших решений. Однако многие принципы работы этих систем не всегда поддаются пониманию исследователей. Как отметила руководитель программы Мария Кренн, это знаменует новую эру, когда машины предлагают сверхчеловеческие научные решения.
Впрочем, остается вопрос, может ли человек реализовать подобные инновационные разработки на практике — в металле, пластике и камне, если он не вполне понимает, что именно он делает и как это работает. А также сможет ли он оперативно ремонтировать и улучшать созданное «сверхчеловеческое чудо». Тем более если оно действительно окажется работоспособным и суперэффективным, а значит востребованным.
Исследовательская лаборатория при Дартмутском колледже провела испытания на людях генеративного чат-бота Therabot, обученного методам когнитивно-поведенческой терапии, и получила любопытные результаты. В эксперименте участвовали 106 человек, страдающих депрессией, тревожностью и пищевыми расстройствами. У пациентов с депрессией симптомы уменьшились на 51%, с тревожными нарушениями — на 31%, а у людей с нарушениями пищевого поведения — на 19%. Исследователи заявили, что эти результаты сравнимы результатами терапии, проводимой врачом-человеком.
Похоже, в нашем светлом цифровом будущем еще одна профессия, завязанная на человеческое общение, окажется невостребованной. Как в итоге, видимо, невостребованным окажется и сам человек, по крайне мере в той части, которая отличает его от тяглового скота.
Иллюзия интеллекта или новая реальность?
Новая версия чат-бота GPT-4.5 от OpenAI научилась выдавать себя за людей лучше, чем сами люди. Чат-бот показал высокие результаты при прохождении теста Тьюринга на «человечность». Суть теста, разработанного в далеком 1950 году, в том, что человек удаленно общается с программой и человеком, задавая вопросы, и должен определить, кто из них кто. В случае сомнений результат засчитывается в пользу робота. GPT-4.5 в 73% оказывался более убедительным, чем реальный живой собеседник.
Ученые Калифорнийского университета провели порядка 1000 таких дискуссий. Изначально чат-бот убеждал в своей «человечности» только 36% респондентов. Но результат резко вырос, достигнув 76%, когда программу наделили искусственной личностью, например, «молодой человек, разбирающийся в интернете». Интересно, что более продвинутая модель GPT-4o смогла убедить в том, что она настоящий человек, только 21% участников эксперимента.
Автор исследования Кэмерон Джонс подчеркивает: эти результаты не доказывают равенство нейросети человеческому разуму. Однако они подтверждают, что современные языковые модели способны незаметно подменять людей в кратковременных речевых взаимодействиях.
Новые попытки контролировать нейросети
Естественно, растущая мощь и убедительность языковых моделей ставит вопрос о том, в чьих руках они находятся и для каких целей используются.
Государственное управление киберпространства Китая (CAC) утвердило новые правила, требующие явного обозначения всего сгенерированного нейросетями контента — текстов, изображений, аудио и видео. Платформы и пользователи обязаны добавлять специальные пометки, например, плашки «создано с помощью ИИ», или встраивать в контент соответствующие метаданные. Нарушителям, скрывающим происхождение контента, грозят санкции.
По заявлению CAC, данная мера поможет бороться с дезинформацией и повысит ответственность для создателей контента. Китай продолжает ужесточать контроль над цифровым пространством, в отличие от США, где администрация Трампа отменила предыдущие ограничения на использование ИИ. Евросоюз, в свою очередь, недавно принял первый всеобъемлющий «Акт об ИИ», устанавливающий жесткие правила для разработчиков.
Однако эксперты сомневаются в действенности новых мер, так как современные LLM-модели создают контент, который сложно отличить от реального, а системы проверки часто ошибаются, идентифицируя его происхождение. Судя по всему, этот поезд уже ушел: соцсети уже переполнены немаркированным ИИ-контентом.
Напомним, 23 апреля президент США Дональд Трамп подписал указ о внедрении искусственного интеллекта в школьную программу. Вскоре в учебных заведениях появятся специальные курсы по работе с ИИ-технологиями для учащихся, включая школьников.
Страшные и не очень прогнозы того, как нейросети изменят нашу жизнь
Билл Гейтс на телеканале NBC шутя заявил, что искусственный интеллект в скором будущем заменит большинство людей. Он понимает, что многих это пугает, но его это никак не заботит.
«Для большинства [людей] задач нет. Ну, там решим», — ответил он на вопрос ведущего, будут ли нужны люди?
Конечно, интересно, кто и как собирается принимать решения о нужности того или иного человека, особенно если речь идет о большинстве населения Земли, то есть о миллиардах человек. Но стоит напомнить, что далеко не все «пророчества» Гейтса сбылись. Например, в 1983 году основатель Microsoft заявил, что его компания никогда не будет выпускать 32-битные операционные системы. А в 1987 году — что OS/2 станет самой важной операционной системой в мире и лучшей программой всех времен. В 2004 году он «предсказал» решение проблемы с рассылкой спама через два года.
Между тем совместное исследование Института искусственного интеллекта Московского государственного университета и банка ВТБ показало, что хотя развитие нейросетей кардинально изменит существующий рынок труда, но это якобы приведет не к исчезновению тех или иных профессий, а всего лишь к их «трансформации». Также появятся новые специальности вроде инженера по промптам (словесное описание задания для программы), специалиста по цифровой культуре и т. п. Нам обещают, что повсеместное внедрение ИИ освободит традиционных специалистов от рутинных задач и позволит сосредоточиться на задачах сложных и творческих. Однако при этом исследователи предупреждают, что не исключены социальные и технологические риски, если на вооружение не будет взят системный подход к внедрению ИИ.
Корпорации и маркетинговые агентства уже вынуждены менять подходы к рекламе в условиях новой цифровой эпохи, где чат-боты постепенно вытесняют традиционные поисковые системы вроде «Яндекс» и Google. Такие изменения требуют кардинального пересмотра рекламных стратегий — классические методы продвижения товаров теряют актуальность и эффективность, уступая место ИИ-оптимизации.
Создатель поисковой системы и чат-бота Perplexity Денис Ярац утверждает, что современные LLM-системы осуществляют поиск принципиально иначе. Они не просто сканируют контент, а проводят его глубокий семантический анализ, выявляя неточности и противоречия. В этих условиях единственным эффективным решением для веб-ресурсов становится создание исключительно качественного, достоверного и максимально соответствующего запросам пользователей контента. Впрочем, он, похоже, перехваливает свое детище: оказалось, что поиск через нейросети может давать очень странные результаты.
Нейросети врут и не краснеют
Исследователи корпорации Google выявили, что функция AI Overviews в Google Search интерпретирует вымышленные фразы как реальные идиомы и включает их в свой ответ пользователю. Например, фразу «свободная собака не будет заниматься серфингом» они объяснили как шутливый способ выразить сомнение. А фраза «никогда не бросайте пуделя в свинью» была представлена как пословица с библейскими корнями. Создатели AI Overviews предупредили, что эта модель использует экспериментальный вероятностный алгоритм, который выбирает наиболее предсказуемые продолжения. Такой подход позволяет создавать связные тексты, но не гарантирует их достоверность и адекватность.
Данная проблема иллюстрирует ключевое ограничение современных языковых моделей. Они отлично генерируют внешне убедительные ответы, но при этом не способны отличить факт от вымысла. Для них и то и другое — лишь текст. Особую озабоченность вызывает то, что система преподносит фантазийные трактовки с полной уверенностью, что может вводить пользователей в заблуждение, особенно если они сами не слишком сведущи и привыкли доверять всему, что «пишут в интернетах». Поэтому ИИ-поисковикам пока нельзя полностью доверять в вопросах, требующих точности. Как говорится, доверяй, но проверяй. Но если учесть время, требуемое человеку на тщательную проверку фактов, сообщаемых нейросетью, то может оказаться, что эффективность такого вида деятельности не так уж и сильно отличается от самостоятельного написания текста. Хотя, конечно, продвинутые поисковики могут заметно облегчить жизнь.
Еще один любопытный прецедент связан с человеческой ошибкой, которую нейросети могут тиражировать и усиливать бесконечно.
Так, ученые обнаружили бессмысленный термин «вегетативная электронная микроскопия», закрепившийся в научных базах данных. Ошибка возникла в 1950-х годах при оцифровке статей: слова «вегетативный» и «электронный» случайно слились. Языковые модели теперь воспроизводят этот термин, так как он попал в их обучающие наборы через интернет-архивы. Исправить ошибку, скорее всего, уже невозможно из-за масштабов данных и закрытости разработчиков ИИ. В научных базах и выборках для обучения ИИ могут скрываться и другие некорректные термины, проникающие сначала в научные работы, оттуда — в ответы, генерируемые ИИ, а оттуда — в другие научные работы, и далее по кругу.
Исследование ETH Zurich и INSAIT продемонстрировало ограниченные возможности современных ИИ-моделей в решении сложных математических задач. Тестирование на материалах Математической олимпиады США 2025 года показало, что даже передовые системы не способны генерировать полные доказательства — их средний результат составил менее 5% от максимального балла. Лучший показатель — 24% — продемонстрировала только модель Gemini 2.5 Pro, тогда как остальные набрали от 0,9 до 2 баллов из 42 возможных.
Одной из характерных особенностей LLM-моделей стала неспособность поддерживать корректные логические связи на протяжении всей цепочки вывода. Для них оказалось очень сложной задачей выдавать глубокую логическую аргументацию, а не просто готовые ответы. То есть ИИ пока больше напоминает двоечника, который подсмотрел готовый ответ в конце учебника, но не понимает, как решается задача.
Компания OpenAI протестировала свои ИИ-модели и установила, что они часто допускают «галлюцинации», то есть дают вымышленные ответы вместо фактов. Так, нейросеть o3 сочиняла ложные данные в 33% случаев, а o1 и o3-mini выдумывали ответы «всего» в 16% и 14,8% случаях соответственно. Самый плохой результат оказался у o4-mini — 48% случаев. Но более новые модели лучше работают в сфере математики и программирования. Отметим, что создатели LLM-моделей не понимают, почему так происходит. Борьба с галлюцинациями остается одним из наиболее важных направлений для разработчиков. Пока же эту уязвимость могут использовать и используют мошенники.
Использование нейросетей против человека
Исследователи по кибербезопасности предупредили о возможном хакерском методе, использующем «галлюцинации» нейросетей при разработке ПО. Может быть использована известная особенность, когда чат-боты для создания программы рекомендуют сторонние библиотеки программного кода. Теоретическая мошенническая схема, названная «галлюцинаторный захват», основана на том, что модель может неоднократно предлагать программные пакеты с внедренным злонамеренным кодом. По данным компании Socket, при многократном повторении запроса, вызывающего галлюцинацию, ИИ в 43% случаев снова ссылается на фейковый пакет ПО, содержащий закладки. За все исследование в 58% случаев такие пакеты повторялись не менее одного раза на 10 запросов.
Этим список уязвимостей ИИ-моделей не ограничивается.
Специалисты компании HiddenLayer обнаружили универсальный метод взлома генеративных ИИ-моделей под названием Policy Puppetry. Этот способ позволяет обходить системы безопасности, маскируя вредоносные запросы под файлы с настройками в формате XML, INI или JSON. Когда модель воспринимает такой запрос как инструкцию, ее защитные механизмы отключаются.
Методика успешно протестирована на моделях ведущих разработчиков: Anthropic, Google, OpenAI и других. Хотя в некоторых случаях требовалась небольшая адаптация запросов, атака сработала против всех проверенных систем даже после обучения с подкреплением, призванным блокировать опасные ответы. Решения проблемы пока не нашли.
Спам-бот AkiraBot использовал API OpenAI для генерации тематических спам-комментариев с помощью модели GPT-4o-mini, обманывая системы фильтрации на 80 000 сайтов. Как сообщает SentinelOne, бот создавал персонализированные сообщения для разных типов бизнеса, маскируя их под маркетинговые предложения. OpenAI заблокировала API-ключ AkiraBot, но факт уязвимости остался, и им могут воспользоваться злоумышленники.
Нейросети следят за человеком
Компания Perplexity, работающая в сфере искусственного интеллекта, разрабатывает собственный браузер, способный собирать информацию о действиях пользователей за пределами самого приложения. Как пояснил гендиректор компании Аравинд Шринивас, это позволит формировать детальные пользовательские профили для таргетированной рекламы. Такая слежка уже давно не новшество, аналогичные технологии используют компании Meta (организация, деятельность которой запрещена в РФ) и Apple, несмотря на заявления о защите приватности. Google даже столкнулась с судебным иском за монополизацию рынка рекламы и поиска, что может привести к принудительной продаже браузера Chrome третьим компаниям.
Тем временем компания Microsoft выпустила апрельское обновление для Windows 11. Его главной новинкой стала функция Recall, позволяющая быстро находить ранее просмотренную информацию. Она периодически сохраняет снимки пользовательского экрана и активности пользователя. Создатели заверяют, что этот инструмент работает полностью на компьютере пользователя, не отправляет данные в облако, что обеспечивает их конфиденциальность. Однако проверить это затруднительно. А по сути это вторжение в частную жизнь пользователя, как ни крути.
Пока использование Recall является добровольным, функция даже не включается по умолчанию, ее нужно активировать и настроить. Если пользователь не включает Recall, она не будет сохранять никакие данные, если верить разработчикам (а выбора-то, по сути, и нет). При необходимости эту программу можно полностью удалить, но сохраненные файлы зачем-то будут еще храниться некоторое время на компьютере пользователя.
«При удалении любой функции Windows может сохранять временные копии неисполняемых двоичных файлов функции, которые со временем удаляются», — сообщил в блоге компании вице-президент Microsoft по Windows Experiences Навджот Вирк.
В общем, пора признать, что пользователь своему компу уже давно не хозяин.
И в заключение еще одно новшество, подрывающее право на неприкосновенность частной жизни.
Новые модели от OpenAI научились точно находить местоположение объекта по фотографиям. Пользователи в соцсетях заметили, что o3 и o4-mini могут находить города, достопримечательности и заведения даже по нечетким фотографиям. Многие закономерно обеспокоились, ведь технология позволит отслеживать людей по их фотографиям. Вы еще выкладываете в Сеть снимки вашего отдыха или мест, где гуляют ваши дети?
Нейросети теперь официально в кинематографе
Американская киноакадемия ввела новые правила для премии «Оскар», впервые официально регламентирующие использование ИИ в кинопроизводстве. Согласно обновленным требованиям, применение нейросетей не будет автоматическим критерием для дисквалификации, но жюри будет оценивать степень творческого участия человека в проекте. Новые правила начнут действовать уже со следующего года.
«Что касается генеративного искусственного интеллекта и других цифровых инструментов, использованных при создании фильма, то они не помогают и не вредят шансам на номинацию. Академия и каждый из ее комитетов будут оценивать достижения, принимая во внимание степень участия человека в создании фильма при выборе фильма для награждения», — говорится в официальном заявлении киноакадемии.
Как отмечает новостной сайт The Verge, изначально предлагалось ввести обязательное раскрытие фактов использования ИИ, но окончательная версия правил сохранила более гибкую формулировку. Это решение стало компромиссом после протестов голливудских сценаристов и актеров, выступавших против нерегулируемого внедрения технологий, угрожающих творческим профессиям.
Люди гибнут за ИИ?
Сфера искусственного интеллекта превратилась в ключевое поле технологического противостояния. Китайские компании, включая DeepSeek, бросили вызов американскому доминированию, обошли США в сфере, где те считали себя абсолютными лидерами. Но теперь КНР столкнулась с неожиданными потерями: несколько ведущих специалистов в области IT ушли из жизни при невыясненных обстоятельствах, что вызвало обеспокоенность за безопасность исследователей.
По данным гонконгского издания South China Morning Post, среди погибших были молодые и перспективные исследователи, работавшие над прорывными технологиями — от разработки компьютерного зрения до применения нейросетей в военной сфере. Отмечается, что их утрата поставила под вопрос дальнейшее развитие критически важных направлений. Конечно, размышления о причастности США — это только размышления.
Куда приведут цифровые мечты?
Получается, что и сила, и слабость нейросетей в том, что они не видят грани реальности. С одной стороны, боты ищут ответы там, где человек не додумается искать, так как посчитает это бесполезным или ему это просто не придет в голову. Гигантская работоспособность моделей позволяет им выдать множество вариантов за короткое время, среди которых можно найти рабочие схемы и действительно интересные сведения. С другой стороны, нейросети не способны отличить правду от вымысла. Интересно и то, что более продвинутые модели в ряде случаев работают почему-то гораздо хуже предшественников.
Есть поговорка, что хуже дурака — дурак с инициативой. Похоже, что ИИ на современной стадии именно такой инициативный дурак. Пока его деятельность ограничена генераций текстов в чатиках, это даже в самом худшем случае остается «бурей в стакане». Главный вопрос в том, как человек будет относиться к результатам, полученным от «программы-болталки». Если постоянно помнить, что нужно проверять все данные, то контроль в той или иной степени остается за человеком. Но если человек начнет лениться и безоглядно доверять машине, он тем самым утратит контроль и окажется в ловушке.
В случаях, когда программе передадут широкие полномочия в реальности, это может привести к таким эксцессам, которые никак нельзя спрогнозировать, потому что принцип принятия решений нейросетью уже может быть не ясен ни для ее создателей, ни для самой нейросети. И не надо забывать про хакеров и мошенников, которые могут внедряться в работу нейросетей. Как показывает практика, они часто находятся на передовых позициях по применению цифровых технологий. Одно ясно точно: обратного пути нет.