SayCan стал важным паттерном не только для роботики, но и для агентных систем вообще. Его суть проста: LLM может предлагать разумные высокоуровневые шаги, но этого мало. Нужно ещё понять, какие действия реально выполнимы в конкретной среде. Поэтому план строится на пересечении semantic plausibility и practical affordance.

В 2026 этот принцип читается шире, чем в исходной робототехнической постановке. Любой production agent выигрывает, если отделяет "что звучит разумно" от "что реально можно сделать доступными tools и в текущем состоянии среды".

SayCan учит не доверять одному только языковому плану. Хороший шаг должен быть и логичным, и выполнимым.

Коротко

SayCan полезен, когда:

  • агент строит планы в реальной среде;
  • доступные действия ограничены;
  • LLM склонна предлагать красивый, но невыполнимый план;
  • нужно связать reasoning с affordances tools или среды.
ПромптGPT-5
Сгенерируй несколько следующих действий для агента, но выбери только те, которые одновременно логичны для задачи и реально выполнимы доступными инструментами.
Ответ модели

Система отбросила два звучащих разумно шага, потому что нужных инструментов не было, и выбрала менее красивый, но исполнимый путь.

SayCan нужен там, где план без grounding слишком легко уходит в фантазию.

Чем SayCan отличается от чистого planning

Обычный language planning отвечает на вопрос:

  • какой шаг звучит наиболее уместно дальше?

SayCan добавляет второй вопрос:

  • какой шаг вообще достижим текущим набором действий?

Именно это делает технику особенно полезной для embodied agents, tool-use systems и workflow execution engines.

Языковой план без grounding
Модель предлагает следующий шаг по смыслу, но не проверяет, можно ли его реально выполнить.
SayCan
Система выбирает шаг, который одновременно семантически уместен и подтверждён affordance/model of executability.

Когда техника особенно полезна

SayCan хорошо подходит для:

  • robotics;
  • browser и tool agents;
  • workflow systems с ограниченным набором actions;
  • agents в changing environment;
  • сценариев, где ошибка исполнения дороже красивого reasoning.

Техника особенно нужна, если LLM часто предлагает unavailable actions.

Ограничения

SayCan требует адекватной модели affordances. Если она слабая, система либо будет слишком консервативной, либо наоборот пропустит невыполнимые действия.

Кроме того, техника сильнее на environments с явными action spaces, чем на полностью открытых задачах.

Почему техника актуальна в 2026

Агентные системы всё чаще выходят из чатового sandbox в execution layer. В таком мире чисто языковой planning больше не хватает. SayCan важен как напоминание, что действие должно быть grounded in capability, а не только в narrative coherence.

Это особенно полезно для tool agents, которым надо реально завершать задачи, а не только описывать их.

Техническая реализация

const candidates = await model(generateNextActionsPrompt(state))
const scored = await scoreAffordances(candidates, environmentState, tools)
const nextAction = pickBest(candidates, scored)

Практический совет: храните отдельно semantic score и executability score. Если слить их в один opaque number, планирование станет трудно объяснимым.

Проверьте себя

1. Что добавляет SayCan к обычному language planning?

2. Когда SayCan особенно полезен?

3. Главный риск SayCan?