Gemini (Google)

Актуальный обзор Gemini на 17 марта 2026: Gemini 3.1 Pro Preview, Gemini 3 Flash Preview, Gemini 3.1 Flash-Lite Preview и стабильная 2.5-линейка.

Старый обзор Gemini быстро устаревает, если продолжать описывать семейство через Gemini 1.5 Pro и Gemini 2.0 Flash. На 17 марта 2026 у Google уже другая рамка: в центре API-линейки стоят Gemini 3.1 Pro Preview, Gemini 3 Flash Preview, Gemini 3.1 Flash-Lite Preview, а рядом остаётся стабильная и очень важная Gemini 2.5-линейка.

Практически это означает две вещи. Во-первых, Gemini больше нельзя сводить только к тезису «самый длинный контекст». Во-вторых, Google сейчас особенно силён там, где нужны мультимодальность, большой контекст, tool layer и агрессивная цена у быстрых моделей.

Gemini — семейство моделей Google. Ими можно пользоваться в приложении Gemini, в Google AI Studio или через API. Если говорить совсем просто, у Google сейчас есть более умные и дорогие Gemini для сложных задач, а есть быстрые и дешёвые Gemini для массовых сценариев, мультимодальных пайплайнов и дешёвого inference.
Google уже ушла далеко от старой рамки Gemini 1.5 Pro + Gemini 2.0 Flash. По текущим docs Gemini 2.0 Flash и Gemini 2.0 Flash-Lite помечены как deprecated. Отдельно важно, что Gemini 3 Pro Preview был shut down 9 марта 2026, а актуальный high-end preview теперь называется Gemini 3.1 Pro Preview.

Коротко

Что важноАктуальный ответ
Текущий high-end GeminiGemini 3.1 Pro Preview
Быстрый multimodal default у GoogleGemini 3 Flash Preview
Дешёвый preview-laneGemini 3.1 Flash-Lite Preview
Стабильный production-defaultобычно Gemini 2.5 Flash или Gemini 2.5 Pro
Контекст у актуальных моделейобычно 1,048,576 токенов

Актуальные модели, на которые реально стоит смотреть:

МодельСтатусКогда братьКонтекстЦена (input / output за 1M)
Gemini 3.1 Pro PreviewPreviewсложный reasoning, long-context analysis, high-end multimodal1,048,576$3 / $15
Gemini 3 Flash PreviewPreviewбыстрый мультимодальный assistant, search/tool workflows1,048,576$0.75 / $3.50
Gemini 3.1 Flash-Lite PreviewPreviewдешёвый быстрый multimodal inference1,048,576$0.25 / $1.50
Gemini 2.5 ProStableproduction tasks, reasoning, code, документы1,048,576$1.25 / $10 до 200K, $2.50 / $15 выше 200K
Gemini 2.5 FlashStableосновной баланс цена/скорость/качество1,048,576$0.30 / $2.50
Gemini 2.5 Flash-LiteStableсамый дешёвый managed lane в Gemini API1,048,576$0.10 / $0.40

Где Gemini особенно силён:

  • мультимодальность из коробки;
  • длинный контекст без экзотики;
  • дешёвые Flash-модели для high-volume workloads;
  • grounding, code execution и structured output в одном стеке;
  • сильная связка с Google-экосистемой.

Где нужно думать аккуратнее:

  • многие самые интересные модели Google сейчас в Preview;
  • naming у Gemini меняется быстрее, чем у OpenAI и Anthropic;
  • старые статьи про Gemini 1.5 Pro и 2.0 Flash уже дают неверную картину выбора;
  • для строгого instruction-following и некоторых coding flows Claude или GPT могут быть предсказуемее.

1. Как сейчас устроена линейка Gemini

В 2026 Gemini удобнее делить не по поколениям, а по operational slots:

  • Gemini 3.1 Pro Preview — high-end preview для самых сложных задач;
  • Gemini 3 Flash Preview — быстрый мультимодальный preview-default;
  • Gemini 3.1 Flash-Lite Preview — дешёвый preview lane;
  • Gemini 2.5 Pro — стабильный reasoning-heavy вариант;
  • Gemini 2.5 Flash — стабильный повседневный default;
  • Gemini 2.5 Flash-Lite — очень дешёвый managed inference.

Это важнее старого вопроса «какой у Gemini максимальный контекст». Сейчас семейство сильнее выглядит как матрица по цене, latency и stability.

2. Контекст, мультимодальность и tool layer

Старый тезис про Gemini как про «модель на 2M токенов» уже недостаточен. В актуальной линейке центральный operational fact другой: и Gemini 3 preview, и Gemini 2.5 stable семейства дают 1,048,576 токенов контекста, чего уже хватает для большинства production-сценариев.

Что Gemini умеет особенно хорошо

  • принимать текст, изображения, аудио и видео в одном API-слое;
  • работать с structured output;
  • использовать Google Search grounding;
  • запускать code execution;
  • строить длинные multimodal workflows без внешней склейки нескольких специализированных моделей.
Gemini: practical strengths
Контекст (K токенов)1048%
Мультимодальность95%
Цена у Flash/Lite93%
Instruction following80%
Naming/stability clarity65%

Почему это важно

Для API-команд Gemini часто выигрывает не потому, что «умнее всех», а потому что Google в одном стеке закрывает:

  • большой контекст;
  • мультимодальность;
  • инструменты;
  • дешёвые fast lanes;
  • бесплатные или дешёвые стартовые режимы в AI Studio.

Это делает Gemini особенно удобным для document AI, multimodal assistants, video/audio analysis и дешёвых retrieval-heavy систем.

3. Thinking и reasoning control

У Gemini сейчас важно понимать, что thinking-механика различается между поколениями.

  • Для Gemini 3 в OpenAI-compatible docs используется параметр thinking_level.
  • Для Gemini 2.5 используется thinking_budget.

Google отдельно указывает, что reasoning нельзя выключить для Gemini 2.5 Pro и для моделей Gemini 3. Это значит, что нельзя честно сравнивать их с обычными non-reasoning моделями только по headline pricing: часть поведения уже встроена в сам профиль модели.

Если вам нужен predictable cheap lane, начинайте с Gemini 2.5 Flash или Gemini 2.5 Flash-Lite. Если вы сразу берёте Gemini 3.1 Pro Preview, вы покупаете не только качество, но и более сложный reasoning profile с preview-risk сверху.

4. Цены и выбор по economics

На 17 марта 2026 у Google очень сильная ценовая лестница.

МодельInputOutputКогда экономически оправдана
Gemini 3.1 Pro Preview$3 / 1M$15 / 1Mкогда реально нужен high-end preview quality
Gemini 3 Flash Preview$0.75 / 1M$3.50 / 1Mбыстрые multimodal assistants и preview workflows
Gemini 3.1 Flash-Lite Preview$0.25 / 1M$1.50 / 1Mдешёвый preview lane
Gemini 2.5 Pro$1.25 / 1M до 200K, $2.50 / 1M выше$10 / 1M до 200K, $15 / 1M вышеstable reasoning и long-context production
Gemini 2.5 Flash$0.30 / 1M$2.50 / 1Mлучший practical balance
Gemini 2.5 Flash-Lite$0.10 / 1M$0.40 / 1Mhigh-volume дешёвый inference

Плюсы

  • У Google одна из самых сильных линеек по соотношению цена/контекст/мультимодальность
  • Gemini 2.5 Flash и Flash-Lite очень сильны как массовый production lane
  • Gemini 3 Flash Preview выглядит хорошим мостом между speed и richer reasoning
  • Google pricing хорошо масштабируется вниз для дешёвых background workflows

Минусы

  • Preview-модели усложняют выбор и lifecycle management
  • High-end Gemini 3.1 Pro Preview уже не выглядит дешёвым по сравнению с Claude Sonnet 4.6
  • Старые pricing-ориентиры по Gemini 1.5 и 2.0 больше нельзя использовать

5. Когда выбирать Gemini, а когда нет

Gemini особенно хорош, если у вас

  • мультимодальные пайплайны;
  • длинные документы и большие retrieval-heavy контексты;
  • дешёвые массовые inference-задачи;
  • задачи с grounding в свежей веб-информации;
  • желание остаться внутри Google-экосистемы.

Лучше посмотреть альтернативы, если у вас

  • критичен максимально стабильный instruction-following в агентных coding flows;
  • нужен более понятный и стабильный model catalog без постоянных preview/release churn;
  • приоритетом является top-tier coding assistant, где Claude Sonnet 4.6 или GPT-5.1 часто проще как default.
ПромптGemini 2.5 Flash
[Загружены: PDF годового отчёта и скриншот дашборда]

Сделай короткое executive summary, выдели ключевые цифры, расхождения между PDF и дашбордом и верни результат в JSON.
Ответ модели

Gemini хорошо подходит для такой задачи, потому что один и тот же вызов может обработать документ, изображение и требование к structured output. На практике это как раз тот тип workflow, где Google-стек часто выигрывает у более узких text-first моделей.

6. Для разработчика

Базовый SDK-вызов

from google import genai

client = genai.Client(api_key="YOUR_API_KEY")

response = client.models.generate_content(
    model="gemini-2.5-flash",
    contents="Сделай краткое summary этого PR и перечисли риски."
)

print(response.text)

Structured output

from google import genai
from google.genai import types

client = genai.Client(api_key="YOUR_API_KEY")

response = client.models.generate_content(
    model="gemini-2.5-flash",
    contents="Верни JSON со списком рисков релиза.",
    config=types.GenerateContentConfig(
        response_mime_type="application/json"
    ),
)

print(response.text)

OpenAI-compatible endpoint

from openai import OpenAI

client = OpenAI(
    api_key="GEMINI_API_KEY",
    base_url="https://generativelanguage.googleapis.com/v1beta/openai/"
)

response = client.responses.create(
    model="gemini-2.5-flash",
    input="Сравни два подхода к кешированию и выбери лучший."
)

print(response.output_text)
Для новых интеграций обычно разумно начинать со stable-моделей Gemini 2.5 Flash или Gemini 2.5 Pro, а preview-ветку Gemini 3.x подключать тогда, когда вам нужен именно её профиль качества или возможностей. Так проще управлять regressions и lifecycle.

Для разработчика

Быстрый decision framework

Если вам нужноНачать с
Общий balanced Google defaultgemini-2.5-flash
Более сильный reasoning и кодgemini-2.5-pro
High-end preview qualitygemini-3.1-pro-preview
Самый дешёвый managed lanegemini-2.5-flash-lite
Быстрый preview multimodal lanegemini-3-flash-preview

Practical notes

  1. Не стройте архитектуру вокруг deprecated Gemini 2.0-моделей.
  2. Не выбирайте preview только потому, что она новее: сначала проверьте, закрывает ли stable 2.5 тот же use case.
  3. Если budget критичен, отдельно замерьте 2.5 Flash против 2.5 Flash-Lite.
  4. Если нужен long-context multimodal assistant, Gemini часто стоит проверять одним из первых.

Проверьте себя

Проверьте себя

1. Какая рамка описывает Gemini на 17 марта 2026 точнее всего?

2. Какая модель Gemini обычно выглядит лучшим stable default для большинства production-задач?

3. Что Google отдельно указывает про reasoning у Gemini 2.5 Pro и Gemini 3?