- Utiliser une stratégie hybride en combinant plusieurs modèles d’IA web gratuits pour séparer la résolution de problèmes et la génération de code, et tirer parti des points forts de chaque modèle
- Avec AI Code Prep GUI, sélectionner et organiser uniquement le code nécessaire afin d’éviter les baisses de performance dues à un contexte inutile, et ne fournir à l’IA que le contexte essentiel
- Pour la conception et le débogage, utiliser des modèles gratuits/haut de gamme (Gemini 2.5 Pro, o3, o4-mini, Claude 4, etc.) ; pour l’exécution et l’écriture de code, utiliser GPT-4.1 et Claude 3.5
- Réduire les coûts au minimum en obtenant des tokens gratuits ou bon marché via le partage de données OpenAI, GitHub Copilot, Poe.com, OpenRouter, etc.
- Améliorer l’efficacité du travail en combinant selon les besoins divers agents et outils CLI comme Claude Code, Qwen Code, Gemini CLI, Roo Code ou Trae IDE
Ma configuration navigateur : le buffet IA gratuit
- J’ouvre dans mon navigateur plusieurs onglets avec les versions gratuites de différents modèles d’IA puissants
- L’idée est de ne pas dépendre d’un seul modèle, mais d’obtenir des réponses sous plusieurs angles. Voici la combinaison de modèles gratuits que j’utilise le plus souvent.
- GLM 4.5 : disponible gratuitement sur le web, avec des performances qui me semblent au niveau de Claude 4, voire supérieures. J’en garde toujours 2 à 3 onglets ouverts
- Kimi K2 : modèle similaire à Claude ou à la famille Opus, disponible gratuitement sur le web. J’ouvre généralement 1 à 2 onglets et, avant l’arrivée de GLM 4.5, il m’aidait plusieurs fois par jour à résoudre des bugs difficiles
- Qwen3 Coder et les nouveaux modèles : utilisé pour tester différents modèles spécialisés dans le code
- OpenAI Playground : permet d’utiliser gratuitement divers modèles comme GPT-4.5 ou o3. Si vous autorisez, dans les paramètres du compte, qu’« OpenAI utilise les données pour l’entraînement des modèles », des tokens gratuits sont attribués
- Google Gemini AI Studio : permet d’utiliser Gemini 2.5 Pro/Flash gratuitement, avec une sensation de quasi-illimité. J’en garde généralement 1 à 3 onglets ouverts
- Google Gemini 2.5 Pro : service distinct d’AI Studio, plus performant pour la génération d’images et la recherche approfondie. Je l’utilise en parallèle avec AI Studio dans d’autres onglets
- Poe.com : fournit des crédits gratuits quotidiens pour des modèles premium comme Claude 4 ou o4-mini
- OpenRouter : permet de mélanger des modèles gratuits et payants. J’y configure plusieurs modèles dans différents onglets
- ChatGPT : même la version gratuite reste utile, donc je garde au moins 1 onglet ouvert
- Perplexity AI : particulièrement fort pour les questions orientées recherche
- Deepseek : propose gratuitement les modèles v3 et r1. Attention toutefois aux limites de contexte
- Grok.com : offre un usage gratuit illimité pour l’usage général, la recherche approfondie et l’édition d’images. Sa fonction de recherche approfondie est notamment utile car similaire à celle de Perplexity
- Phind : essaie de fournir des organigrammes ou des diagrammes en complément des réponses
- lmarena.ai : propose gratuitement Claude Opus 4 et Sonnet 4. L’accès gratuit à Opus 4 a une valeur particulièrement élevée
Claude.ai est lui aussi gratuit, mais ses limitations d’usage fréquentes peuvent être gênantes ; j’utilise donc d’autres approches via l’extension Cody ou Copilot, par exemple.
Point d’attention – lors de l’utilisation de Grok
Grok fournit du calcul gratuit et de la génération d’images non censurée, ce qui peut être utile lorsque les systèmes de sécurité d’autres modèles deviennent bloquants. Cependant, certains rapports laissent penser que ses opérateurs pourraient avoir l’intention de promouvoir des idées liées au nazisme ou de la désinformation. Il a notamment été affirmé qu’il aurait reçu pour consigne de fournir de fausses informations sur des événements historiques, y compris certains génocides en Afrique. Ces distorsions apparaissent principalement sur la plateforme X, mais il est recommandé de limiter son usage à des cas sûrs, comme le code, ou de l’utiliser en gardant à l’esprit ses biais potentiels.
Un workflow plus intelligent et moins coûteux : le contexte ciblé
- Lorsqu’on utilise des interfaces de chat IA sur le web (AI Studio, ChatGPT, OpenRouter, etc.), elles sont souvent meilleures que les IDE ou frameworks d’agents (Cline, Trae, Copilot, etc.) pour résoudre des problèmes ou proposer des solutions
- Si l’on traite tout avec des outils comme Cursor, Cline ou Roo Code, on envoie à l’IA de grandes quantités de texte sans rapport direct avec le problème — comme la façon d’utiliser un serveur MCP ou les procédures d’édition de fichiers — ce qui la perturbe et dégrade ses performances
- À cause de cela, même en utilisant les modèles les plus chers, on ne parvient pas à surmonter l’« effet de ralentissement » provoqué par les informations inutiles
- J’adopte donc une approche qui consiste à créer moi-même le contexte exact nécessaire à la résolution du problème, puis à le coller dans un chat IA web pour poser la question ou demander une revue de code
- Une fois la solution trouvée, je rédige son contenu sous forme de prompt pour un agent comme Cline, auquel je confie uniquement l’édition des fichiers
- Cela permet de résoudre des problèmes et de faire de la conception à faible coût avec GPT-4.1 (utilisable sans limite), sans devoir consommer des crédits Claude inutilement
- J’utilise Claude pour les problèmes difficiles, et les IA de chat web pour l’exécution, afin d’améliorer l’efficacité
-
Comment AI Code Prep aide (exemple de structure de prompt)
Exemple de prompt :
Can you help me figure out why my program does x instead of y?- AI Code Prep GUI analyse récursivement le dossier du projet, parcourt tous les sous-dossiers et fichiers, puis organise le code et la question dans un format facile à lire pour l’IA
- Exemple de contexte généré :
Can you help me figure out why my program does x instead of y? fileName.js: <code> ... contenu du fichier ... </code> nextFile.py: <code> import example ... autre contenu ... </code> Can you help me figure out why my program does x instead of y?- La question est répétée deux fois (en haut/en bas/des deux côtés au choix) pour aider l’IA à conserver son focus
- Sous Windows, il suffit de faire un clic droit dans le dossier du projet → lancer « AI Code Prep GUI » → les fichiers de code sont sélectionnés automatiquement, tandis que les répertoires inutiles comme
node_modulesou.gitsont exclus d’office - Même si la sélection n’est pas parfaite, elle peut être facilement ajustée via des cases à cocher
- Quand un projet volumineux dépasse la limite de contexte de l’IA, il est possible de ne fournir que les fichiers strictement nécessaires
-
Pourquoi cette approche est importante
- De nombreux agents de code comme Cline, GitHub Copilot, Cursor ou Windsurf envoient un contexte beaucoup trop volumineux ou insuffisant, ce qui les rend inefficaces
- En sélectionnant soi-même les fichiers, on peut ne fournir à l’IA que les informations nécessaires, sans données superflues
- Grâce à son interface GUI, l’outil offre une meilleure protection du code privé et une plus grande simplicité d’usage que d’autres outils de génération de contexte qui exigent une CLI ou des liens GitHub publics
- Pour les dernières mises à jour des fonctionnalités, voir wuu73.org/aicp
Stratégie de modèles : choisir le bon cerveau pour le bon travail
- De nombreux modèles d’IA puissants sont disponibles gratuitement via des interfaces web (Gemini dans AI Studio, Grok, Deepseek, etc.), donc il faut les exploiter en priorité
- Poe.com offre des crédits quotidiens gratuits pour des modèles de premier plan comme Claude et la nouvelle série o4
- Gemini 2.5 Pro (fourni via AI Studio) excelle pour le débogage, la planification et le travail global, et est actuellement considéré comme le modèle le plus polyvalent
- Pour les problèmes difficiles, essayer o4-mini (disponible sur OpenRouter ou Poe)
- Bien moins cher à utiliser via API que les anciens modèles haut de gamme (Claude 3.5/3.7/4)
- Il a déjà permis de résoudre instantanément des bugs jusque-là difficiles à corriger
- Claude 3.7 ou 4 est accessible via Poe, l’API (OpenRouter), GitHub Copilot Chat, etc.
- Une partie de l’usage est offerte gratuitement, mais le coût devient élevé en cas d’utilisation fréquente
- Les versions 3.7/4 produisent des sorties créatives et explosives (dans un style « Hunter S. Thompson »), mais pour le vrai code, il peut être plus efficace de confier le travail à un Claude 3.5 plus posé
-
Comment utiliser les tokens gratuits d’OpenAI Playground
- En activant le paramètre de partage des données du compte OpenAI, il est possible d’utiliser chaque jour un grand volume de tokens gratuits
- Dans OpenAI Playground → icône de réglages en haut à droite → menu de gauche Data Controls → Sharing, activer "Share inputs and outputs with OpenAI" pour obtenir les avantages suivants :
- Jusqu’à 250 000 tokens par jour : gpt-5, gpt-4.1, gpt-4o, o1, o3
- Jusqu’à 2,5 millions de tokens par jour : gpt-4.1-mini, gpt-4.1-nano, gpt-4o-mini, o1-mini, o3-mini, o4-mini, codex-mini-latest
- Avec ce réglage, il est possible d’utiliser gratuitement en grande quantité des modèles haut de gamme comme o3 et GPT-4.5
- Dans OpenAI Playground, il est possible d’exécuter o3 et o4-mini côte à côte pour les comparer et comprendre les points forts et les usages de chaque modèle.
-
Stratégie d’usage recommandée par modèle
- Gemini 2.5 Pro : priorité absolue pour le débogage, la planification et les tâches de code générales
- o4-mini : excellent pour résoudre des bugs complexes, avec un très bon rapport coût/efficacité
- Claude 4 / 3.7 : idéal pour les problèmes urgents et difficiles, mais avec des limites d’accès et de coût
- Claude 3.5 : adapté pour affiner les productions créatives de 3.7/4 ou écrire le code réel
- o3, GPT-4.5, Qwen3 Coder 480b, GLM 4.5 : excellents pour résoudre des problèmes complexes, avec possibilité d’usage massif grâce au paramétrage des tokens gratuits
L’approche hybride : planification premium + exécution à petit budget
- Après avoir testé différents modèles, une stratégie hybride a été développée afin de maximiser à la fois la qualité et l’efficacité coût
- L’idée clé est que chaque modèle a ses points forts à une étape précise du processus de développement
> Théorie du « Smart Juice » – pourquoi l’IA devient bête
> L’« énergie d’intelligence » qu’un modèle peut mobiliser est limitée.
> Lorsqu’on envoie un prompt concis et ciblé, presque 100 % de cette énergie sert à résoudre le problème.
> Mais si l’on envoie une entrée inutilement complexe (longues explications sur l’usage des outils, contexte sans rapport avec le problème, plusieurs pages de code, etc.), une part importante de cette énergie est consommée à traiter cela, ce qui réduit l’« intelligence » restante pour résoudre le vrai problème.
>
> Exemple : les agents intégrés à l’IDE comme Cursor ou Cline envoient beaucoup d’instructions et de contexte avant même la question, ce qui diminue la concentration du modèle.
> Par conséquent, réduire le contexte inutile et n’envoyer que l’essentiel nécessaire à la résolution du problème est la meilleure façon d’obtenir des résultats optimaux.
-
Workflow au démarrage d’un nouveau projet
- 1. Plan & Brainstorm
- Concevoir l’approche, établir un plan étape par étape et identifier les bibliothèques nécessaires avec des modèles web gratuits et intelligents (Gemini 2.5, o4-mini, Claude 3.7/4, o3, etc.).
- 2. Generate Agent Prompt
- Demander à l’un des modèles ci-dessus :
"Write a detailed-enough prompt for [Cline](https://cline.bot/), my AI coding agent, to complete the following tasks: [description de la tâche]" - Affiner ensuite une nouvelle fois le prompt généré avec une IA gratuite douée pour la reformulation, comme ChatGPT.
- Demander à l’un des modèles ci-dessus :
- 3. Execute with Cline
- Coller le prompt affiné dans Cline et l’exécuter avec GPT 4.1 ou Claude 3.5 (ou Claude 4 pour les tâches complexes).
- La famille GPT 4.1 est bien entraînée au respect des consignes.
- 4. Fallback
- Si GPT 4.1 échoue, basculer vers Claude 3.5 via l’API.
- Deepseek v3 ou R1 est également très performant pour suivre les consignes.
- 1. Plan & Brainstorm
-
Stratégie clé
- Utiliser des modèles coûteux mais intelligents (ou Gemini 2.5 Pro lorsqu’il est disponible gratuitement) pour la stratégie et la conception.
- Valider le plan en le collant dans 2 ou 3 autres modèles gratuits (Deepseek R1, le Claude de Poe, etc.) avec la question :
"Is this good? Can you improve it or find flaws?" - Pour la phase de code et d’exécution, utiliser dans Cline des modèles stables et efficaces (GPT 4.1, Claude 3.5).
-
Conseils d’utilisation par modèle
- o4-mini
- Très bon pour les stratégies d’implémentation de haut niveau, comme l’interprétation de logiques de code complexes ou le choix de frameworks et bibliothèques.
- Brainstorming d’idées
- En cas d’échec de résolution
- Si les modèles gratuits ou peu coûteux ne parviennent pas à résoudre le problème, passer à des modèles avancés et payants via l’API.
- o4-mini
Agents et configurations alternatifs
- Trae.ai (Bytedance, créateur de TikTok)
- IDE compatible avec VS Code, proposant une utilisation gratuite de l’IA : Claude 4, Claude 3.7, Claude 3.5 et GPT 4.1 inclus.
- Les performances de l’agent intégré sont inférieures à celles de Cline (honnêtement, Cline reste le plus puissant).
- Comme il s’agit d’un clone de VS Code, il semble possible d’installer l’extension Cline.
- Mais les serveurs sont surchargés, donc c’est lent → l’intérêt pratique de la gratuité est limité.
- Cela reste néanmoins notable pour l’accès gratuit à certains modèles.
-
Deux configurations recommandées
- 1. VS Code + Cline + Copilot
- Abonnement Copilot à 10 $/mois → permet d’utiliser des API de modèles puissants à moindre coût dans Cline.
- Le palier gratuit permet aussi quelques fonctions de base.
- 2. Trae.ai + Cline
- Tester s’il est possible de combiner l’accès gratuit aux modèles de Trae avec l’utilisation d’une clé API Cline.
> Astuce : l’agent natif de Copilot résout parfois des problèmes que Cline gère mal, et l’inverse est aussi vrai.
> Cline peut envoyer des prompts excessivement longs, ce qui peut dégrader les performances → il existe donc des cas où Copilot est avantagé.
- Tester s’il est possible de combiner l’accès gratuit aux modèles de Trae avec l’utilisation d’une clé API Cline.
- 1. VS Code + Cline + Copilot
-
Roo Code : un clone de Cline
- Roo Code est presque identique à Cline, tout en proposant quelques fonctions différentes.
- Selon le projet ou le style de code, Roo Code peut être un meilleur choix.
- Cline lui-même est gratuit, mais les appels API sont facturés.
- La méthode la plus économique : configurer l’API LM de VS Code + un abonnement Copilot à 10 $/mois → pour utiliser des modèles puissants presque sans limite.
-
Nouveaux outils CLI : Claude Code, Qwen Code, Gemini CLI
- L’intérêt pour les outils de codage basés sur la CLI a fortement augmenté récemment.
- Claude Code : prend en charge les subagents → n’exécute qu’une seule tâche et n’utilise pas d’outils supplémentaires.
- Cela permet de reproduire le workflow centré sur le « smart juice » décrit dans ce guide.
- Supprime les instructions d’agent inutiles (bloat) tout en conservant l’efficacité.
- Qwen Code et Gemini CLI ont eux aussi chacun leurs avantages.
- Un guide de configuration pour utiliser Claude Code avec GLM 4.5 est disponible sur z.ai.
- Chaque outil CLI ayant ses propres points forts, il est recommandé d’expérimenter en s’appuyant sur les guides et les conseils des communautés.
TL;DR : guide de démarrage rapide
- Modèles & rôles
- Planification & brainstorming
GLM 4.5, Kimi K2, les dernières séries Qwen3 Coder & 2507, Gemini 2.5 Pro (AI Studio), o4-mini (OpenRouter), Claude 3.7/4 (Poe), et l’usage de 250k tokens gratuits par jour sur OpenAI Playground (o3, GPT-5) sont recommandés - Résolution de problèmes & débogage
GPT-5 (tokens gratuits sur Playground), GLM-4.5 (performances au niveau de Claude 4), Claude 4 (tokens gratuits quotidiens sur Poe) - Codage effectif
GPT-4.1 (Cline), avec Claude 3.5 en remplacement en cas d’échec, ou encore Qwen3 Coder, Instruct, 2507, GLM 4.5, Kimi K2
- Planification & brainstorming
- Outils clés
- VS Code
- AI Code Prep GUI – analyse et sélectionne uniquement les fichiers nécessaires en local, optimise le contexte envoyé à l’IA
- Cline (agent VS Code) – exécution du code étape par étape
- Chats web gratuits – Poe.com, ChatGPT, Grok, Deepseek, Perplexity, OpenAI Playground, AI Studio (Gemini 2.5 Pro), OpenRouter, duck.ai
- Workflow rapide
- Utiliser AI Code Prep GUI pour regrouper les fichiers liés au projet
- Coller ce contexte dans le modèle de chat web de votre choix pour planifier et déboguer
- Demander à un modèle :
rédige un prompt Cline détaillé pour cette tâche, puis l’affiner à nouveau dans ChatGPT ou ailleurs - Coller le prompt final dans Cline configuré avec GPT-4.1 pour générer ou modifier le code
→ en cas d’échec, passer à Claude 3.5
- Astuces pour réduire les coûts
- Activer le “partage de données” dans OpenAI Playground → 250k tokens gratuits par jour (GPT-4.5, o3) + 2.5M tokens gratuits par jour (o4-mini, o3-mini)
- Abonnement GitHub Copilot à 10 $/mois → permet une utilisation limitée des modèles Claude dans Cline
- Facturation à l’usage sur OpenRouter → permet d’utiliser à bas coût des modèles récents comme o4-mini ou Claude 3.7
Quelques réflexions
- L’IA est un formidable multiplicateur de productivité, mais ce n’est pas une baguette magique.
- La vraie magie opère lorsque votre curiosité, votre persévérance et votre envie d’expérimenter se combinent à ces outils puissants.
- Ne vous laissez pas décourager par les bugs ou les problèmes — chaque défi est une occasion d’apprendre quelque chose de nouveau.
- N’ayez pas peur de mixer les modèles, de tenter des idées audacieuses, de casser puis de reconstruire.
- Les meilleurs développeurs ne sont pas ceux qui ne se retrouvent jamais bloqués, mais ceux qui continuent d’avancer malgré les blocages en mobilisant tous les outils et toutes les techniques à leur disposition.
- Acceptez le chaos, prenez plaisir au processus, et laissez votre créativité montrer la voie !
Dernières mises à jour des modèles (août 2025)
💰 Budget serré : maximiser la valeur
-
GPT 4.5
- Statut : abandonné
-
o3
- Capacités : performances comparables à Claude 4, excellent pour résoudre les problèmes difficiles, niveau génie
- Conseil d’utilisation : permet d’analyser l’ensemble du code source en y injectant toute la base de code via AI Code Prep GUI
- Tokens gratuits : 250k tokens/jour si le partage de données est activé dans les paramètres Data Controls/Sharing
-
o4-mini
- Capacités : un peu moins performant qu’o3, mais reste excellent, comme une sorte de petit frère d’o3
- Tokens gratuits : 2.5M tokens/jour si le partage de données est activé
-
Gemini 2.5 Pro
- Accès : gratuit sur AI Studio
- Spécialité : débogage complexe, conception d’architecture et planification
-
Deepseek R1 0528
- Capacités : modèle très intelligent avec des capacités de raisonnement améliorées
- Accès : utilisable gratuitement via l’interface web de Deepseek
🚀 Premium : résoudre les problèmes MAINTENANT
-
Claude 4 Sonnet
- Capacités : avec suffisamment de contexte, résout la plupart des problèmes en une seule fois
- Spécialité : excellentes performances globales, notamment en rédaction et en résolution de problèmes
- Usage : quand il faut absolument réussir parfaitement dès le premier essai
-
Claude 4 Opus
- Prix : 75 $ / 1M tokens
- Performances : présenté comme encore supérieur à Sonnet, avec des performances dignes d’une « sauce magique »
- Usage : quand une résolution de problème ultime est nécessaire
Modèles de travail solides
Les modèles suivants suivent bien les consignes et exécutent les tâches de manière stable :
-
GPT 4.1
- Utilisé comme modèle intelligent haut de gamme pour la conception et la résolution de problèmes, puis pour les modifications de code réelles
- Les sorties obtenues n’importe où peuvent être collées telles quelles dans Cline pour exécution
-
Claude Sonnet 3.5
- Particulièrement performant pour le code et l’édition
- Légèrement plus lent que 4.1, mais très stable
-
Deepseek v3
- Adapté à l’écriture de code, aux modifications et aux tâches d’agent
- Excellent rapport qualité-prix
-
OpenRouter Free Models
- Sur OpenRouter, définissez le filtre de prix sur
$0pour explorer les modèles gratuits - Cela vaut la peine d’expérimenter lorsqu’un nouveau modèle apparaît
- Sur OpenRouter, définissez le filtre de prix sur
Free Claude 4: lmarena.ai, and More
Claude Opus 4 and Sonnet 4
- Sur lmarena.ai, Claude Opus 4, Sonnet 4 et d’autres sont proposés gratuitement
- Astuce : conservez, mémorisez et exploitez absolument toute opportunité d’utiliser gratuitement des modèles de la famille Anthropic
- Usage : si tout le reste échoue, ou si vous devez terminer parfaitement une tâche immédiatement, choisissez Claude 4 Sonnet ou Opus
NEW!! Bad ass new Chinese models + GPT 5
-
GLM 4.5
- Performance : comparable à Claude 4 Opus ou Sonnet
- Caractéristiques : exécute presque parfaitement les règles d’agent et l’usage des outils
- Usage : très efficace pour corriger des bugs très difficiles et traiter des tâches complexes nécessitant beaucoup de contexte
-
Qwen3 Coder 480B
- Évaluation : un modèle puissant et peu coûteux, très apprécié
- Usage : tâches de programmation dans des environnements à haute performance et faible coût
-
Qwen3 Instruct & Thinking 2507
- Performance : stabilité et puissance comparables à Qwen3 Coder
- Avantages : fiable et rentable
-
Kimi K2 (Moonshot)
- Caractéristiques : semble avoir une nature entraînée sur des données synthétiques de type Anthropic ou similaires à Claude
- Évaluation : excellentes performances, modèle souvent utilisé
-
GPT 5
- Limites : moins à l’aise avec l’usage d’outils personnalisés (MCP, Cline, etc.)
- Méthode recommandée :
1. Établir le plan et résoudre le problème avec les meilleurs modèles, comme GPT 5 ou GLM 4.5
2. Rédiger ensuite un prompt pour qu’un modèle agent plus simple effectue les modifications réelles et l’usage des outils - Comparaison :
- GPT 4.1 conserve un excellent rapport qualité-prix
- Les nouveaux modèles chinois excellent dans l’usage d’outils personnalisés/Cline
- Bilan : les tests ne sont pas encore suffisants, mais chaque modèle a ses points forts, et pour l’instant les modèles chinois sont très attractifs en matière de prix et de stabilité
Current Coding Workflow (2025)
-
For New Projects:
- 1. Planning Phase:
- Noter tous les détails du projet (langage, bibliothèques, serveur, etc.) dans un bloc-notes
- 2. Multi-Model Consultation:
- Coller le même contenu dans plusieurs modèles pour obtenir des « avis multiples » :
- Gemini 2.5 Pro (gratuit)
- GPT 4.1
- o4-mini
- Claude 4 (en utilisant les crédits quotidiens gratuits de Poe)
- Coller le même contenu dans plusieurs modèles pour obtenir des « avis multiples » :
- 3. Refinement:
- Affiner les détails via des échanges itératifs avec les modèles
- 4. Task Generation:
- Demander au modèle de rédiger une liste de tâches étape par étape pour l’agent de code IA Cline
- 5. Execution:
- Exécuter la tâche dans Cline (ou Roo Code) avec GPT 4.1 configuré en mode « act »
- 1. Planning Phase:
-
For Problem Solving:
- Analyse de bases de code complexes : utiliser GPT 4.5 + AI Code Prep
- Demander à GPT 4.5 : « rédige un prompt pour que Cline accomplisse cette tâche »
- Choisir le modèle selon la complexité du problème
- Utiliser divers modèles pour explorer des solutions sous plusieurs angles
-
Task List & Test Driven Development (Coming Soon)
Test Driven Development & Task Lists:- Demander à l’IA de rédiger une liste de tâches détaillée pour exécuter Cline, Roo Code ou l’agent Trae
- Il est possible d’indiquer à Cline ou Roo Code d’enregistrer l’avancement des tâches dans un fichier Markdown et de cocher les éléments une fois terminés
- Cela permet de suivre facilement la progression et d’éviter les oublis
- Pour l’instant, il est possible d’expérimenter en faisant générer une checklist Markdown par le modèle, puis en demandant à Cline ou Roo Code de mettre à jour ce fichier
-
Money-Saving Hacks
- GPT 4.5 & o3 : en activant le partage des données d’entraînement du modèle, 250 000 tokens gratuits sont fournis chaque jour
- Modèles peu coûteux : 2,5 millions de tokens peuvent être utilisés chaque jour sur o4-mini, 4.1-mini/nano
- GitHub Copilot : pour 10 $ par mois, accès aux nouveaux modèles Claude (avec limitation de débit)
- Trae IDE : permet actuellement d’utiliser Claude 4 et GPT 4.1 gratuitement (sans abonnement, apparemment sans limite)
- Poe.com : fournit des crédits quotidiens gratuits pour tous les modèles
- Web Interfaces: utiliser des interfaces web de chat gratuites pour la planification et le conseil
-
Coming Soon: Live Reddit Data & Insights
Live Reddit Data Scraping & Daily Insights:- Prévoit de scraper les données Reddit en temps réel afin de fournir chaque jour des cas d’usage actualisés des modèles d’IA
- Inclura des analyses d’usage détaillées, des visualisations de données et de nouveaux insights sur les workflows de code réels et les tendances
Aucun commentaire pour le moment.