#06 · Le prompt n'est plus le sujet
Salut,
OpenAI et Anthropic ont publié leurs guides officiels de prompting la même semaine. Deux approches opposées, une même conclusion : arrête de dire au modèle comment faire, dis-lui ce que tu veux obtenir. C'est la clarté de la demande qui tient la qualité de la réponse, pas l'habileté du prompt.
Pile sur le sujet, on boucle cette semaine le chapitre Fondations du parcours sur le site. À côté, Google prépare son I/O, le Chief AI Officer s'installe partout, et Mobbin sort un MCP qui change la façon de concevoir une UI avec Claude.
On déroule.
Ce que j'ai publié
Cette semaine, je boucle le chapitre Fondations du parcours sur letape-dapres.fr : 4 articles sur 4. C'est la phase qui fait le pont entre « j'utilise ChatGPT de temps en temps » et « j'ai un vrai setup IA qui me sert tous les jours ». Pourquoi sortir du chatbot, comment formuler tes demandes, choisir le bon outil, et comprendre les cinq Claude qui se cachent derrière un seul nom.
- Pourquoi le chat ne suffit plus : le chat web a un plafond. Pas l'IA, l'interface. L'article qui ouvre le chapitre.
- Prompter au niveau d'après : le framework RTCF, six techniques qui font la différence, et comment itérer pour obtenir pile poil ce que tu veux.
- Choisir son IA en 2026 : la matrice de décision par usage. Quel LLM pour quoi, et la combinaison recommandée selon ton métier.
- Claude AI vs Claude Desktop vs Claude Code : cinq Claude pour cinq usages, et le piège des noms qu'Anthropic n'a pas réussi à éviter.
Prochaine étape : le prompting avancé et l'audit automatisé.
Les signaux
Google I/O : Gemini s'installe en couche système sur Android Google fait sa keynote la semaine prochaine et le pitch est posé. Gemini n'est plus une app, c'est la couche qui lit ton écran, traverse Gmail, Chrome, Maps et Instacart, et exécute des tâches multi-étapes : « regarde ma liste d'invités, fais le menu, ajoute les ingrédients au panier, reviens me valider ». Un nouveau modèle en classe GPT-5.5 est attendu dans la foulée. Demain, l'utilisateur n'ouvre plus ton app, il demande à Gemini, et Gemini s'en occupe. Si ton produit n'est pas prêt à être utilisé par un agent plutôt que par un humain, il disparaît du téléphone.
OpenAI publie B2B Signals : les boîtes « frontière » consomment 3,5x plus d'IA par employé Première édition d'un rapport trimestriel d'OpenAI sur l'adoption enterprise. Le chiffre qui marque, c'est cet écart de 3,5x sur la consommation de tokens par tête entre une frontier company et une boîte moyenne. L'entreprise dépasse 40 % du revenue d'OpenAI et devrait atteindre la parité avec le consumer fin 2026. En face, 54 % des C-suites disent que l'IA « déchire » leur boîte et 79 % galèrent sur le déploiement. Une boîte n'est plus en avance ou en retard, elle est dans la frontière ou hors. Et la métrique qui compte en QBR ou en board, c'est la consommation d'intelligence par tête, pas le nombre de seats déployés.
Anthropic passe devant OpenAI en B2B et signe 200 milliards avec Google Cloud Selon Menlo, Anthropic prend la tête de l'usage entreprise pour la première fois. Dans la foulée, deal à 200 milliards sur cinq ans avec Google Cloud, pendant qu'OpenAI lève à un niveau record. Le marché se referme sur deux acteurs (Anthropic, OpenAI), un challenger (Google), et plus grand monde derrière. Si ton produit ou ton process repose sur une de ces API, c'est le moment de te poser une seule question : qu'est-ce qui se passe le jour où le prix double, ou le jour où le modèle change. Attendre pour choisir va devenir cher.
Figma s'ouvre aux agents Avec les releases de mai, les agents comme Claude Code ou Cursor peuvent désormais créer et modifier des écrans directement dans Figma via MCP, en utilisant les vrais composants de ton design system. Adobe l'a fait il y a quinze jours avec Creative Cloud (édition #04), Figma le fait cette semaine. Même logique : l'outil ne se garde plus pour lui, il devient une fonction qu'un agent peut appeler. La vraie question n'est plus « est-ce qu'on adopte Figma AI », c'est « est-ce que notre design system est assez propre pour qu'un agent l'utilise sans tout casser ».
Le Chief AI Officer s'est imposé : 76 % des grandes orgs en ont un, contre 26 % il y a un an Étude sur plus de 2 000 organisations. En douze mois, le Chief AI Officer passe d'une curiosité à un poste qu'on retrouve presque partout. Dans la même semaine, Coinbase annonce des suppressions et se déclare « AI-first » : leur direction assume que l'IA fait gagner assez de temps en interne pour réduire certains postes. Le vrai changement, c'est qui décide d'acheter de l'IA dans une grande boîte. Ce n'est plus le DSI, c'est le CAIO. Il a son propre budget, ses propres objectifs, et il n'achète pas comme un service informatique. Les pitchs faits pour l'IT en 2025 tombent à plat.
Les agents IA spécialisés prennent une vraie avance : 3x plus vite, 2 à 4x plus chers Les agents qui se concentrent sur un seul métier (santé, juridique, BTP, finance) grandissent trois fois plus vite que les outils IA généralistes, se vendent deux à quatre fois plus cher, et gardent leurs clients plus longtemps. L'argent suit : les investisseurs misent sur les équipes qui maîtrisent une vraie industrie et un vrai workflow, pas sur les copies de ChatGPT qui changent juste l'habillage. L'idée du « on prend GPT et on met une interface par-dessus » ne suffit plus pour lever. Si tu construis quelque chose en 2026, tu choisis ton métier avant de choisir ton outil.
L'outil : le MCP Mobbin, ta bibliothèque UX branchée sur Claude
Mobbin a sorti son MCP avant-hier. Et franchement, c'est un des plus beaux jump-starts que j'ai vus depuis longtemps quand on veut concevoir une interface avec une IA.
Mobbin, c'est quoi déjà. La plus grande bibliothèque mondiale de références d'interfaces mobiles et web. 621 500 écrans réels et 142 200 flows captés sur des vraies apps en production : fintech, e-commerce, santé, productivité, SaaS, y compris des apps difficiles d'accès (services payants, apps banques régionales, niches). 200 000 designers et équipes produit s'en servent au quotidien pour voir comment Revolut gère son onboarding, comment Notion construit son paywall, comment Linear pense ses settings. Jusqu'ici, tu y allais à la main : tu cherchais, tu screenshottais, tu rangeais.
Pourquoi un MCP, c'est un truc de dingue. Un MCP, c'est un câble entre ton IA et un outil extérieur. Tu branches Mobbin sur Claude, et Claude peut désormais aller chercher tout seul dans la bibliothèque pendant qu'il bosse pour toi. Tu ne copies plus rien, tu ne décris plus rien. Tu lui demandes, il va voir. Et ce qu'il génère n'est plus inventé sur la base d'une moyenne statistique des design qu'il a vus à l'entraînement, c'est ancré dans des vraies apps qui tournent en prod.
À quoi ça sert concrètement. Tu peux demander à Claude « regarde comment les meilleures apps fintech gèrent l'authentification à deux facteurs, sors-moi trois variations, et propose la maquette pour notre app » et il revient avec une vraie référence sourcée, pas un brouillon générique. Pareil pour un paywall, un onboarding, un checkout, une page de settings. C'est la différence entre un agent qui devine et un agent qui s'inspire.
Setup en moins d'une minute, dispo sur tous les plans payants, en beta.
La pensée : le prompt n'est plus le sujet
Anthropic et OpenAI ont publié leurs guides de prompting officiels la même semaine. Le guide Claude et le guide GPT-5.5 partent de points opposés et arrivent au même endroit : arrêtez de dicter au modèle comment faire, dites-lui quoi obtenir.
Concrètement, les deux guides répètent les mêmes ingrédients. Décris le résultat attendu, pas la procédure. Liste les contraintes (ce qui doit être présent, ce qui est interdit). Donne les critères qui font qu'une réponse est bonne ou ratée. Indique le format de sortie. Ce n'est plus un prompt, c'est une spec de réponse. Et c'est exactement ce qu'on demande à un bon brief en interne, à un cahier des charges propre, à un ticket Jira qui ne génère pas dix questions.
Là où ça change la donne, c'est que le goulot d'étranglement a bougé d'un cran. Avant, le prompt habile contournait les limites du modèle. Aujourd'hui, le modèle est plus puissant que la clarté moyenne des demandes qu'on lui adresse. Tu peux avoir Claude 4.7 ou GPT-5.5 sous le capot, si la cible est floue, tu produis du flou plus vite. Le flou multiplié par la vitesse, ça donne du contenu interchangeable, des décisions molles, des produits qui se ressemblent.
Le vrai skill IA en 2026, ce n'est pas un raccourci clavier. C'est la capacité à formuler à quoi ressemble une bonne réponse avant d'en demander une.
À vendredi prochain.
Cédric.