Использование Gemini государственными группами: что зафиксировали аналитики
23 февраля 15:39
Компания Google сообщила о попытке клонирования своей языковой модели Gemini через так называемую distillation-атаку — метод, который позволяет воспроизводить логику работы модели, отправляя большое количество запросов через ее API.
Об этом говорится в квартальном отчете подразделения Google Threat Intelligence Group, передает «Коммерсант Украинский».
Как работает «distillation»-атака
По данным компании, неизвестные отправили более 100 тысяч запросов в Gemini. Целью было не взломать инфраструктуру, а воспроизвести поведение модели — ее языковые паттерны, логику ответов и способность работать на разных языках.
Такой подход в отрасли называют «model extraction» или «distillation» — фактически копирование знаний модели путем анализа ее ответов.
В Google подчеркнули, что считают это формой кражи интеллектуальной собственности и нарушением условий использования сервисов.
Новая киберугроза для ИИ
Проблема выходит за пределы одной компании. Ранее OpenAI сообщала американским законодателям, что китайская компания DeepSeek якобы применяла замаскированные методы для получения результатов ведущих американских ИИ-моделей с целью обучения собственных систем.
Эксперты отрасли признают: похищение моделей становится новым типом киберриска. В отличие от традиционного взлома, атакующие пытаются не разрушить систему, а «извлечь» ее знания — результаты многолетних и дорогостоящих исследований.
Использование Gemini государственными группами
В отчете также отмечается, что в конце 2025 года Gemini использовали группы, связанные с государствами, в частности из Китая, Ирана, Северной Кореи и России.
Среди них:
- иранская APT42 — для подготовки кампаний социальной инженерии;
- китайские APT31 и UNC795 — для анализа уязвимостей и настройки вредоносного кода;
- северокорейская UNC2970 — для сбора разведданных об оборонных и кибербезопасных компаниях.
Google заявила, что соответствующие аккаунты были заблокированы, а собранная информация использована для усиления защиты.
ИИ внутри вредоносного ПО
Отдельно компания сообщила об обнаружении нового вредоносного программного обеспечения HONESTCUE, которое интегрировало API Gemini непосредственно в свой код для генерации и выполнения вредоносных команд.
Также зафиксирован фишинговый набор COINBAIT и сервис Xanthorox, который позиционировал себя как отдельная ИИ-платформа, но фактически использовал коммерческие решения, в частности Gemini.
Что это означает для рынка
Инцидент подчеркивает новую дилемму для компаний, предоставляющих ИИ как сервис: открытость API ускоряет инновации, но в то же время создает риск копирования моделей.
В Google отмечают, что провайдерам необходимо:
- внимательно мониторить шаблоны доступа к API;
- ограничивать массовые автоматизированные запросы;
- внедрять контроль за ответами моделей;
- адаптировать защиту к быстрой эволюции угроз.
Рынок искусственного интеллекта все больше сталкивается не только с этическими или регуляторными вопросами, но и с прямой борьбой за технологическое превосходство.