La répétition du prompt améliore la précision des LLM, selon une étude de l’équipe de Google
(arxiv.org)Une technique très simple mais puissante mise en évidence dans un article publié par l’équipe de Google Research (« Prompt Repetition Improves Non-Reasoning LLMs ») :
répéter exactement le même prompt deux fois à l’entrée permettrait d’augmenter fortement la précision de la plupart des LLM récents (Gemini, GPT-4o, Claude, DeepSeek, etc.).
Points clés :
- En raison de la structure causale (autoregressive) des LLM, ils sont vulnérables à l’ordre des informations et au fait de ne les voir qu’une seule fois → ils se trompent souvent quand une information importante se trouve plus loin dans le prompt ou quand la tâche nécessite des références.
- Saisir le prompt deux fois de suite → au stade de prefill (analyse de l’entrée), le modèle traite deux fois le même contenu, ce qui rend sa représentation interne plus précise et réduit fortement les erreurs de référence et de mémoire.
- Cela a très peu d’effet sur la phase de génération (création des tokens de sortie) → quasi aucune hausse du temps d’inférence ni de la longueur de sortie (sauf cas particuliers comme Claude, quand le contexte est très long).
- Résultats expérimentaux : sur 7 modèles × plusieurs benchmarks, 47 améliorations sur 70 combinaisons, sans aucun cas de forte dégradation.
- Exemple extrême : tâche du type « Quel est le 25e nom dans une liste de 50 noms ? »
→ précision de base de Gemini 2.0 Flash Lite : 21 % → 97 % après répétition (presque parfait) - Effet limité sur les tâches de raisonnement complexes comme le Chain-of-Thought (quand le modèle gère déjà bien les références).
- Inconvénients : si le prompt est déjà très long, le temps de prefill peut augmenter, et au-delà de deux répétitions on peut atteindre la limite de tokens.
Conclusion
Un truc d’amélioration de précision étonnamment simple et presque sans coût, qui pourrait devenir aussi célèbre que « Think step by step ».
Le résultat attire particulièrement l’attention comme conseil pratique immédiatement exploitable pour les références simples, le traitement de listes et les questions sur des données structurées.
Aucun commentaire pour le moment.