riven-calen/llmtextcheck icon
public
Published on 5/7/2025
Проверь работу текстовых LLM проекта

Проверка использования токенов и text_llm_auto в проекте

Prompts
Проверь работу текстовых LLM проекта
Аудит токенов и использования text_llm_auto
Выполни аудит проекта по следующим пунктам, связанным с использованием текстовых LLM:

🔹 **Этап 1 — Лимиты токенов:**
– Найди все места, где ограничивается количество токенов.
– Убедись, что:
  1. Везде используется `text_token_limit_models(...)`.
  2. Лимиты берутся из `CONFIG["Ограничение по токенам"]`, а не заданы вручную.
  3. Все ключи существуют в словаре CONFIG (если чего-то нет — добавь в отчёт).
  4. Отдельно зафиксируй все случаи использования `max_tokens_default`.

🔹 **Этап 2 — Использование словаря CONFIG:**
– Проверь раздел `CONFIG["Ограничение по токенам"]`.
– Выяви:
  • Неиспользуемые ключи — можно удалить.
  • Используемые, но не описанные — нужно добавить.

🔹 **Этап 3 — Вызовы текстовых LLM:**
– Найди все обращения к LLM (через OpenAI, Nous и др.).
– Убедись, что **везде** используется функция `text_llm_auto(...)`.
– Если где-то модель вызывается напрямую — укажи строку и файл.

📌 **Формат ответа:**
1. 🔒 Токены — нарушения, предложения, строки
2. 🧩 CONFIG — лишние и недостающие ключи
3. 🤖 text_llm_auto — где не используется и что исправить

✍️ Пиши по-русски, кратко и структурированно. Не ограничивайся примерами — делай полный охват.