Depuis deux ans, le “prompt engineering” est devenu une discipline à part entière. Les utilisateurs de modèles comme GPT-3.5 ou GPT-4 ont rapidement découvert quelques techniques miracles pour “forcer” l’IA à raisonner de manière plus fiable. Parmi elles, deux ont marqué les esprits : la Chain of Thought (CoT) et la Tree of Thought (ToT).

La première consistait à demander explicitement au modèle de raisonner pas à pas, en déroulant chaque étape de son raisonnement avant de donner une réponse. La seconde allait plus loin : plutôt que de suivre une ligne unique, on encourageait le modèle à explorer plusieurs branches possibles, comme un arbre de décision, avant de choisir la plus pertinente.

Ces méthodes ont réellement amélioré les résultats des premières générations de modèles. Mais avec l’arrivée de GPT-5, la donne change.


GPT-5 raisonne déjà par défaut

GPT-5 intègre nativement des capacités de raisonnement multi-étapes. Même sans indication particulière, il est capable d’analyser un problème complexe, de tester mentalement plusieurs solutions, et de converger vers une réponse cohérente.

Cela ne veut pas dire que CoT et ToT sont devenues inutiles. Elles restent pertinentes dans certains cas précis :

  • les problèmes mathématiques ou logiques où la rigueur pas-à-pas est cruciale ;
  • la planification de projets ou la programmation, où explorer plusieurs scénarios peut éviter des impasses ;
  • les contextes où l’on souhaite comprendre la logique suivie par le modèle, plus que le résultat lui-même.

En réalité, CoT et ToT sont passées du statut de trucs pour améliorer la performance à celui d’outils de contrôle et de transparence.


De nouvelles priorités : nudges et contrôle de la verbosité

Ce qui devient réellement stratégique avec GPT-5, ce sont d’autres techniques, plus simples mais souvent plus efficaces au quotidien : les router nudges et le verbosity control.

Un router nudge, c’est une petite phrase dans votre prompt qui oriente le “mode de pensée” du modèle. Par exemple :

  • “Réfléchis bien à ce problème” (Think hard about this)
  • “Explique comme si tu t’adressais à un PDG pressé”
  • “Analyse comme un expert juridique”

Le modèle ne change pas ses connaissances, mais il ajuste son ton, son style de raisonnement et sa profondeur d’analyse. C’est un peu comme choisir une paire de lunettes différentes pour regarder la même scène.

Le contrôle de la verbosité, lui, fixe le niveau de détail attendu. C’est ce qui évite les réponses trop vagues ou, à l’inverse, les pavés indigestes. Quelques exemples :

  • “En trois points maximum”
  • “En moins de 200 mots”
  • “Explique pas à pas, mais reste concis”

Pourquoi cela change tout

L’association des deux techniques fait toute la différence :

  • Le nudge définit l’angle et la profondeur de la réponse.
  • Le contrôle de la verbosité définit la taille et la densité.

Demandez simplement “Explique Bitcoin” et vous obtiendrez une réponse générique de longueur moyenne.
Ajoutez “Explique Bitcoin à un journaliste économique en 5 points maximum” et vous obtenez un texte clair, ciblé, et exploitable immédiatement.


Le futur du prompting

En résumé, GPT-5 réduit la nécessité de forcer l’IA à raisonner pas à pas. Les chaînes de pensée (CoT) et les arbres de pensée (ToT) ne disparaissent pas, mais ils se repositionnent comme outils spécifiques, utiles surtout dans les cas complexes ou à forte exigence de transparence.

Pour un usage quotidien, la clé n’est plus de “tirer les mots de l’IA par la manche” pour la faire réfléchir. La clé est de guider finement son mode de réponse.

Le futur du prompting n’est pas de rallonger indéfiniment la chaîne de pensée.
Il est d’apprendre à formuler des instructions précises, qui orientent le raisonnement et calibrent la sortie.

Bref : moins de chaînes, plus de maîtrise.

Similar Posts

Laisser un commentaire