Как один API-ключ превратился в счёт на $82 000 — и почему это напугало разработчиков

May 11, 2026

В начале 2026 года на Reddit появилась история, быстро разлетевшаяся по IT-сообществу. Разработчик рассказал, что злоумышленники получили доступ к его Google Gemini API key и за 48 часов накрутили около $82 000 расходов на AI API.

Сначала многие восприняли это как очередной случай: «не храни секреты в публичном репозитории».

Но затем выяснилось, что ситуация намного сложнее и неприятнее.

Что произошло

По словам автора, был скомпрометирован API-ключ Google Cloud / Gemini. После этого злоумышленники начали массово использовать Gemini API для генерации запросов и быстро сожгли огромную сумму.

История:

Сам факт утечки API-ключа — не новость. Такое происходило и раньше.

Но разработчиков особенно напугали три вещи:

  • отсутствие жёстких лимитов расходов;
  • скорость роста счёта;
  • изменение роли старых Google API keys.

Самый спорный момент: «публичные» ключи внезапно стали опасными

Именно это вызвало основную волну критики.

Исторически многие Google/Firebase API keys считались почти публичными. Например:

  • ключи для карт;
  • Firebase config;
  • client-side integrations.

Их часто встраивали прямо во frontend. Google сам годами показывал такие примеры в документации.

Проблема в том, что после интеграции Gemini некоторые из этих ключей начали открывать доступ к платным AI-сервисам.

Многие разработчики считают, что semantics ключей изменились без достаточного предупреждения.

Обсуждения:

Это важный нюанс.

Разработчики привыкли воспринимать такие ключи как:

  • идентификатор проекта;
  • ограниченный client token;
  • технический конфиг.

А внезапно оказалось, что они могут стать источником финансового риска на десятки тысяч долларов.

Почему нельзя просто поставить лимит?

Это следующий шок для многих пользователей Google Cloud.

Оказывается, Google Budgets — это не hard cap.

Google прямо пишет в документации:

“The budget doesn't automatically set a hard cap on spending.”

Документация:

То есть budget:

  • отправляет уведомления;
  • может триггерить automation;
  • но сам по себе не останавливает расходы.

И здесь возникает проблема.

AI API способны тратить деньги с огромной скоростью:

  • тысячи запросов в минуту;
  • автоматические retry loops;
  • агенты;
  • batch jobs;
  • генерация больших ответов.

В результате счёт может вырасти быстрее, чем сработают уведомления.

Некоторые пользователи жаловались, что billing alerts приходили с большой задержкой.

Почему Google так сделал?

Позиция облачных провайдеров исторически строилась вокруг идеи: «лучше не отключить сервис, чем случайно уронить production».

Для enterprise-клиентов внезапное отключение инфраструктуры — очень опасная ситуация:

  • остановка приложений;
  • потеря данных;
  • падение API;
  • проблемы у клиентов.

Поэтому AWS, Google Cloud и Azure традиционно предпочитают:

  • продолжать работу;
  • а потом выставить счёт.

Это было относительно терпимо в эпоху:

  • виртуальных машин;
  • баз данных;
  • обычных API.

Но AI сильно изменил ситуацию.

LLM-модель может сжечь огромный бюджет буквально за часы.

«Постройте защиту сами»

Google предлагает использовать:

  • quotas;
  • alerts;
  • Cloud Functions;
  • автоматическое отключение сервисов;
  • кастомную автоматику.

Документация:

И здесь появляется ещё одна неприятная проблема.

Чтобы автоматически отключать сервисы, нужен более привилегированный доступ:

  • billing admin;
  • service usage admin;
  • quota management.

То есть для защиты от runaway billing приходится хранить ещё более опасные ключи.

Из-за этого многие компании сейчас переходят на другую архитектуру:

client   
own backend / gateway   
Gemini / OpenAI / Claude

Это позволяет:

  • скрыть vendor API keys;
  • ставить свои лимиты;
  • блокировать аномалии;
  • отслеживать abuse;
  • выдавать временные токены.

Но такая схема:

  • дороже;
  • сложнее;
  • требует своей инфраструктуры;
  • увеличивает latency.

Реакция сообщества

Массового бойкота Google пока нет.

Но доверие заметно пострадало.

Сейчас активно обсуждаются:

  • опасность AI API keys;
  • отсутствие hard caps;
  • необходимость proxy/gateway;
  • переход на self-hosted/open-weight модели;
  • локальный inference.

Появляются:

  • monitoring-сервисы;
  • anomaly detection tools;
  • security writeups;
  • инструменты автоматического отключения API.

Для многих разработчиков главный вывод оказался довольно жёстким:

LLM API key — это уже не просто технический секрет.

Это финансовый риск.

И чем автономнее становятся AI-агенты, тем опаснее становится утечка таких ключей.

Важный вывод

При этом важно не уходить в крайности.

Проблема не означает:

  • что Google Cloud «сломался»;
  • что AI API нельзя использовать;
  • что облака бесполезны.

Но история показала, что индустрия пока не до конца адаптировалась к новой реальности AI.

Старые подходы к:

  • API keys;
  • billing;
  • quotas;
  • frontend integrations;
  • cloud security

оказались плохо готовы к миру, где один ключ может превратиться в счёт на десятки тысяч долларов за несколько часов.

И сейчас разработчики, компании и сами облачные провайдеры только начинают перестраивать свои подходы под эти риски.