Проверка использования токенов и text_llm_auto в проекте
Выполни аудит проекта по следующим пунктам, связанным с использованием текстовых LLM:
🔹 **Этап 1 — Лимиты токенов:**
– Найди все места, где ограничивается количество токенов.
– Убедись, что:
1. Везде используется `text_token_limit_models(...)`.
2. Лимиты берутся из `CONFIG["Ограничение по токенам"]`, а не заданы вручную.
3. Все ключи существуют в словаре CONFIG (если чего-то нет — добавь в отчёт).
4. Отдельно зафиксируй все случаи использования `max_tokens_default`.
🔹 **Этап 2 — Использование словаря CONFIG:**
– Проверь раздел `CONFIG["Ограничение по токенам"]`.
– Выяви:
• Неиспользуемые ключи — можно удалить.
• Используемые, но не описанные — нужно добавить.
🔹 **Этап 3 — Вызовы текстовых LLM:**
– Найди все обращения к LLM (через OpenAI, Nous и др.).
– Убедись, что **везде** используется функция `text_llm_auto(...)`.
– Если где-то модель вызывается напрямую — укажи строку и файл.
📌 **Формат ответа:**
1. 🔒 Токены — нарушения, предложения, строки
2. 🧩 CONFIG — лишние и недостающие ключи
3. 🤖 text_llm_auto — где не используется и что исправить
✍️ Пиши по-русски, кратко и структурированно. Не ограничивайся примерами — делай полный охват.