Context Budgeting
Optimisez l'utilisation de la fenêtre de contexte et réduisez les coûts de tokens. Gère intelligemment la quantité d'historique de conversation envoyée au modèle IA par requête.
CARACTÉRISTIQUES PRINCIPALES
Élagage automatique de l'historique de conversation basé sur la pertinence
Budget de tokens configurable par requête
Rétention de messages basée sur la priorité (système > récents > anciens)
Analytiques d'utilisation de tokens et projections de coûts
Compatible avec tous les fournisseurs IA (Claude, GPT, Gemini, Kimi)
EXEMPLE DE CONFIGURATION
"skills": {
"entries": {
"context-budgeting": { "enabled": true }
}
}CONVERSATION EXEMPLE
Combien est-ce que je dépense en tokens ?
Rapport de budget de contexte : - Taille moyenne du contexte : 2 400 tokens/requête (avant 4 100) - Économies mensuelles estimées : 3,20€ - Ratio de compression : 41% de réduction - Messages conservés : 15 derniers (était 30) Votre budget est configuré à 3 000 tokens/requête. Voulez-vous l'ajuster ?
CONSEILS ET BONNES PRATIQUES
Commencez avec un budget de 4 000 tokens et réduisez progressivement
Les messages système importants ne sont jamais élagués
Combinez avec Memory Tiering pour décharger les anciennes conversations vers le stockage
SKILLS ASSOCIÉS
Activer sur votre bot
Context Budgeting · AI Optimization