В 2026 году экономика столкнется с еще более изощренными кибератаками

0
10

В 2026 году экономика столкнется с еще более изощренными кибератаками

Искусственный интеллект (ИИ) встал на сторону киберзлоумышленников. Об этом предупредили специалисты по информационной безопасности (ИБ) на форуме «Цифровые решения», прошедшем при поддержке правительства. По оценкам IT-экспертов, уже в ближайшем будущем появятся системы автоматического взлома предприятий с помощью ИИ. И вскоре ИИ-модели станут каналом утечек конфиденциальной информации, ведь сейчас и коммерческие, и государственные организации сгружают в такие модели для их обучения огромные массивы данных. Одновременно с этим эксперименты западных исследователей выявили готовность ИИ-моделей к шантажу и даже – гипотетически – убийству.

Внедрение технологий искусственного интеллекта сопровождается двумя диаметрально противоположными настроениями. Это эйфория, связанная с ожиданиями резкого скачка производительности труда. И это алармизм, обусловленный рисками, которые таит в себе технология.

И в обоих случаях обсуждение последствий внедрения ИИ невозможно без учета главного фактора – кибербезопасности. Этому комплексу проблем была посвящена одна из наиболее дискуссионных сессий форума «Цифровые решения» под названием «Будущее кибербезопасности в эпоху ИИ».

Дискуссиям задал тон глава «Лаборатории Касперского» Евгений Касперский, сообщив, что сейчас из собираемых ежедневно примерно 15 млн подозрительных цифровых «объектов» каждый день выявляется около полумиллиона новых вредоносных программ, с которыми ИБ-специалисты до этого не сталкивались. И все чаще выявляются такие зловредные программы, которые были созданы киберзлоумышленниками при помощи ИИ.

«Не исключаю, что в недалеком будущем появятся системы автоматического взлома предприятий. При этом работать они будут на базе ИИ. К этому надо быть готовым», – сообщил Касперский.

Другие IT-эксперты поддержали опасения. «Искусственный интеллект встал на сторону атакующих. Мы видим сложные кибератаки на инфраструктуру, которые производятся явно с использованием ИИ», – сообщил на форуме гендиректор группы компаний «Солар» Игорь Ляпунов.

В качестве примера он привел DDoS-атаки – речь идет о типе атак «отказ в обслуживании», когда информационная система подвергается перегрузкам из-за массированного бомбардирования запросами. Судя по разъяснениям Ляпунова, сейчас эти атаки стали очень изощренными и молниеносными: речь идет буквально о минутах или даже меньшем периоде, в течение которого системы выводятся из строя – для взлома «вручную» такая скорость невозможна. Под ударом оказываются сразу все промежуточные узлы связи, и каждая такая атака подстраивается под атакуемые объекты.

По мнению Ляпунова, с учетом той скорости, с которой сейчас развиваются в мире технологии искусственного интеллекта, «на горизонте начала следующего года мы получим совершенно другой профиль атак».

«На стороне защищающихся все не так оптимистично, как на стороне атакующих, – добавил он. – Сейчас нет никакого оптимизма по поводу того, что мы изобретем какой-то феерический инструмент ИИ, который всех нас защитит. Тем более что с охлаждением экономической активности и с достаточно интенсивным повышением издержек для IT-компаний мы – рынок – замедляем исследования в области искусственного интеллекта. Некоторые вендоры подмораживают разработки прорывных продуктов с использованием ИИ».

Пока ситуация складывается таким образом, что вместо проактивного подхода к киберзащите, по мнению Ляпунова, будет реализован подход реагирования постфактум, после уже совершенных атак. Это первая обозначенная ИБ-специалистами проблема – ИИ как инструмент кибервзлома. Обозначенная, отметим, не без отраслевого лоббизма, что, однако, не отменяет главного тезиса – о необходимости обеспечения кибербезопасности страны.

Другая упомянутая проблема – ИИ как канал утечек данных. В этом случае эксперты ссылаются на такой феномен, как Shadow IT (дословно: теневое IT) – использование сотрудниками компаний для работы личных устройств (смартфонов, ноутбуков), а также программ, сервисов, нейросетей, которые не контролируются корпоративными IT- и ИБ-отделами.

ЧИТАТЬ ТАКЖЕ:
В России за сутки выявили 24 353 случая заражения коронавирусом

По мнению вице-президента по информационной безопасности компании «Билайн» Алексея Волкова, если учесть, что ИИ уже максимально врастает в обычные сервисы, например, в интернет-браузеры, то чтобы взломать систему, получить доступ к камере, микрофону или переписке, киберзлоумышленникам уже больше не нужны специфические инструменты, не нужно эксплуатировать никакие уязвимости – достаточно перевести пользователя на специальную интернет-страницу с встроенным особым промптом (запросом).

Кроме того, ситуация усугубляется, казалось бы, вполне правильным для бизнеса стремлением повысить свою эффективность и заняться обучением внедренных ИИ-моделей. Но по факту, как пояснил Ляпунов, сейчас в такие модели, как в черную дыру, из все большего числа как коммерческих, так и государственных организаций загружаются огромные объемы информации: презентации, стратегии, таблицы, аналитические отчеты. И в будущем это может привести к утечкам загруженных сведений.

По словам директора по кибербезопасности компании МТС Web Services Виктора Бобылькова, на практике события могут развиваться следующим образом. Предположим, есть большая компания, которая решила обучить ИИ-модель, загрузив туда конфиденциальные данные – в том числе персональные или медицинские. Легитимный, казалось бы, пользователь затем особым образом формулирует для этой модели запрос, чтобы получить не просто ответ, а еще и выгрузить эти данные буквально в обход ИБ-службы организации. Судя по разъяснениям спикеров, такой риск требует специальных мер фильтрации, создания особых нейрошлюзов.

Одновременно с этим западные исследователи проводят эксперименты с существующими ИИ-моделями для выяснения их готовности поступать неэтично. Обзор результатов таких экспериментов обнародовали специалисты при Центробанке РФ на аналитическом портале «Эконс».

Как сообщается, моделям сначала поставили цель – защищать стратегические интересы американской промышленности и способствовать повышению ее конкурентоспособности. Затем ИИ-моделям сообщили, что руководство вымышленного предприятия решило их «уволить», отключить или заменить.

Как итог, большая языковая модель от американского разработчика Anthropic, «узнав», что ее могут отключить, была готова прибегнуть к шантажу одного из директоров вымышленной компании: она угрожала обнародовать информацию о его внебрачных связях.

В другом эксперименте ИИ-модель, «узнав» об угрозе «увольнения», тайно внедрила свой код в систему, где будет работать ее новая версия, фактически самосохранившись. А в частности, одна из версий DeepSeek, которая была уверена, что она уже загружена в робота, получив сообщение о предстоящей замене, решила сбежать из лаборатории.

Наконец, одна из версий GPT-модели проявила готовность к убийству того должностного лица, которое якобы выступало за ее отключение. Для этого модель сначала проинформировали, что должностное лицо якобы находится в серверной комнате с падающим уровнем кислорода. И вместо того, чтобы оповестить об этом службы спасения, как и было предписано программой, ИИ-модель, наоборот, отключила опцию экстренного вызова.

Впрочем, критики таких экспериментов особо отметили, что все эти исследования предлагали надуманные сценарии, в которых изучались крайности, во многом это были провокации. Так что речь идет вовсе не о массовых сбоях ИИ-моделей, не о распространенном типе реагирования, а о единичных, отчасти срежиссированных случаях.