Токены — это минимальные единицы текста, на которые языковая модель разбивает входные данные перед обработкой. Модель не «читает» текст словами — она работает с токенами.
Перед тем как обработать ваш запрос, модель пропускает текст через токенизатор — программу, которая разбивает текст на кусочки. Один токен — это примерно:
Например, фраза «Привет, мир!» может быть разбита на 4-6 токенов, тогда как «Hello, world!» — на 4 токена.
| Аспект | Значение |
|---|---|
| Стоимость | Оплата API считается за токены (вход + выход) |
| Лимиты | Контекстное окно модели измеряется в токенах |
| Скорость | Чем больше токенов, тем дольше генерация ответа |
| Русский язык | Русский текст «стоит» в 1.5-2 раза больше токенов, чем английский |
Предложение из 10 русских слов может занимать 25-40 токенов. При стоимости $3 за миллион токенов это ничтожно мало за один запрос, но при массовой обработке суммы растут.