… quand l’IA te répond en 3 secondes chrono ?
C’est la question que nous pose Philippe Ensarguet dans son article “Crafting your expertise relevance beyond 2030” que je vous invite à lire. Cet article m’a fait beaucoup réfléchir, d’autant plus que l’IA est très présente autour de nous : c’était un sujet important à la La Product Conf Paris, c’est aussi une des questions qui revient dans mes conversations avec les PMs que je mentore et bien sur c’est le thème central du Tech.Rocks Summit 2025.
C’est donc une question que je me pose régulièrement — pas par peur panique d’être dépassée, ni par doute de mes compétences (quoique? . Mais parce que je sens, de manière de plus en plus tangible, que quelque chose de fondamental est en train de changer dans la manière dont on perçoit, reconnaît, et valorise l’expertise. Ce n’est pas juste un changement d’outils ou de formats : c’est une bascule structurelle, presque anthropologique, dans notre rapport à la connaissance, à l’autorité, et au rôle que jouent les “sachants” dans nos sociétés.
Et c’est une bascule que je vis de plein fouet, depuis que j’ai décidé de créer ma propre structure de conseil. Ce que je propose, c’est justement de l’expertise. Pas de la production de contenu, mais une pensée, une présence, un cadre, une capacité à faire émerger de la clarté dans la complexité. Alors forcément, quand je vois ce qu’un modèle d’IA est capable de générer en quelques secondes, avec une qualité souvent plus que correcte, je suis obligée de me reposer la question : à quoi je sers, moi, exactement ? Et surtout : à quoi je tiens vraiment ?
😰
On a longtemps assigné à l’expertise une fonction d’autorité. Être expert·e, c’était savoir ce que les autres ignoraient encore. On t’écoutait parce que tu avais vu, compris ou traversé quelque chose que les autres n’avaient pas eu le temps ou l’opportunité d’apprendre. Ton expérience, ton CV, tes diplômes, ton réseau — tout cela servait de gage de qualité. Dans cette configuration, le savoir était rare, difficile d’accès, laborieux à acquérir. Et donc, il valait cher. Le rôle de l’expert·e n’était pas seulement de connaître, mais de sécuriser : il ou elle rassurait les décideurs, incarnait une forme de certitude dans un monde incertain. Mais ce modèle repose sur une prémisse qui, aujourd’hui, ne tient plus : l’idée que le savoir serait rare. Il ne l’est plus. Il est disponible, partout, instantanément, souvent gratuitement. Il ne suffit donc plus de “savoir” pour être utile ou légitime.
Le savoir n’est plus un privilège. Il est devenu un produit.
C’est l’un des renversements les plus brutaux que j’ai observés ces dernières années. Le savoir n’est plus ce capital symbolique que l’on met des années à construire : c’est une ressource industrialisée, formatée, “consommable” en quelques clics. Ce que les LLM rendent possible, c’est l’accès à une forme de connaissance synthétique et opérationnelle, activable à la demande. Tu veux comprendre les leviers de croissance d’un modèle de plateforme ? Évaluer une structure produit ? Trouver un cadre pour mieux gérer tes OKRs ? Tout cela peut t’être servi, bien écrit, bien structuré, avec des références croisées, en moins de temps qu’il n’en faut pour faire chauffer ton café. Et souvent, c’est suffisant pour débloquer un sujet ou tenir une réunion. C’est là que le terrain devient glissant : car si l’expertise se réduit à la capacité à formuler une réponse intelligente sur commande, alors oui, les IA nous rattrapent. Et vite.
Car soyons lucides : sur certains aspects, les IA nous dépassent déjà. Elles sont excellentes pour synthétiser, structurer, comparer, reformuler. Elles manipulent des volumes de données qu’aucun humain ne peut absorber. Elles génèrent des variantes, testent des hypothèses, produisent des documents impeccables — et ce, sans fatigue, sans ego, sans besoin de validation sociale. Et nier cela serait une posture défensive stérile.
En tant que professionnelle du conseil, je les utilise quotidiennement pour faire un état des lieux rapide sur un sujet, clarifier mes idées, tester une trame de workshop, explorer des pistes secondaires. Et franchement, ce sont des outils bluffants, d’une efficacité redoutable pour passer d’un brouillon d’intuition à une proposition construite. Le problème n’est pas leur puissance : c’est la manière dont on confond la fluidité de leur production avec une forme de “vraie” intelligence. Ce n’est pas parce qu’un texte est bien tourné qu’il est juste. Mais dans la perception collective, ça suffit souvent à faire illusion.
Alors je me demande : qu’est ce que je fais moi ? Qu’est ce que l’IA ne fait pas — et peut-être ne fera jamais ?
Aucune IA ne sent quand une salle est tendue. Elle ne perçoit pas qu’un stakeholder acquiesce poliment mais est en réalité en train de bloquer en silence. Elle ne voit pas les alliances tacites, les frustrations qui grandissent et grondent, les peurs sous-jacentes qui empêchent une équipe d’avancer. Elle ne mesure pas l’effet de son diagnostic sur le moral d’un collectif. Elle ne se remet pas en question quand un conseil qu’elle a donné ne produit pas les effets escomptés. En bref : elle ne vit pas les conséquences de ce qu’elle propose.
Et moi c’est exactement ce que je fais au quotiden : vivre avec les conséquences de ce que je fais et dis. Et c’est là que l’expertise humaine garde un rôle irremplaçable. Pas pour avoir “la vérité”, mais pour accompagner des décisions, dans leur complexité, leur matérialité, leur dimension émotionnelle et politique. On ne me demande pas juste ce que je pense : on me demande ce que je ferais à leur place. Et ça change tout. Car dans ce rôle, je suis impliquée, responsable, vulnérable. C’est une expertise incarnée, pas désincarnée. Une expertise vécue.
Une expertise située, pas générique
Ce n’est pas moi qui le dis, c’est Donna Haraway, dans son texte fondateur Situated Knowledges (1988) : le savoir est toujours situé. Il est produit dans une relation, à un moment, par une personne qui a une histoire, un corps, une perspective. À l’inverse de l’objectivité froide que l’on associe encore parfois à l’expertise, cette approche reconnaît la valeur de l’incarnation, du contexte, de l’expérience vécue. Dans mon métier, cela se traduit par le fait que je ne propose pas de solution “hors-sol”. Je ne sors pas une réponse universelle de mon chapeau. Je travaille avec ce qui est là : une culture d’entreprise, un passé organisationnel, des sensibilités, des tensions, des espoirs aussi. C’est une posture artisanale plus qu’industrielle. Et c’est précisément là que réside ma valeur : dans ma capacité à produire de l’intelligence contextuelle. Ce que je sais faire ne peut pas être copié/collé. Ça ne se transmet pas par fichier. Ça se co-construit, dans le réel.
L’IA comme partenaire, pas comme menace
Je ne vis pas l’IA comme un danger. Je la vis comme un levier, un multiplicateur de potentiel. Ce n’est pas une concurrente, c’est une assistante. Une collaboratrice silencieuse, mais extrêmement rapide et disciplinée. Depuis que je travaille avec elle, je vais plus vite. Je vais plus loin. Je peux tester plus d’idées, produire plus de matière, avec moins de charge mentale. Et surtout, je peux réserver le meilleur de mon énergie à ce qui me rend vraiment utile : cadrer une problématique, challenger une équipe dirigeante, créer un espace de décision saine. L’IA ne m’enlève rien de ce qui fait la singularité de ma pratique. Au contraire : elle me permet d’y consacrer plus de temps. En ce sens, je ne suis plus une indépendante qui fait tout toute seule. Je suis une structure allégée mais augmentée, capable de répondre à plus d’enjeux, plus vite, sans sacrifier la qualité. À moi de garder la main.
Mais soyons clairs : cette nouvelle donne n’a rien de confortable. Elle nous oblige à sortir du rôle rassurant de “celui qui sait”. Elle nous pousse à devenir des praticiens réflexifs, capables de prendre du recul sur notre propre posture, de l’adapter aux situations, de rester agiles sans devenir flous. Elle exige aussi que l’on s’entraîne à de nouvelles compétences : la facilitation, l’écoute active, le travail émotionnel, le design d’interactions, la capacité à apprendre en public. On ne nous demande plus de produire du savoir figé, mais de produire des conditions de transformation. C’est un saut de posture. Un glissement de l’expertise vers la maïeutique, de la transmission vers la co-création. Et ce n’est pas facile, surtout quand on a été formé à l’ancienne école. Mais c’est ce qui fait, aujourd’hui, toute la différence.
Ce que je vends aujourd’hui, ce n’est pas un package de réponses. C’est un cadre de travail, une présence dans la complexité, une capacité à faire émerger ce qui doit l’être, à faire avancer ce qui bloque. Ce n’est pas mon contenu qui compte — c’est ce que je déclenche, ce que j’active, ce que je facilite. C’est mon discernement, mon exigence, ma façon de sentir les systèmes. Et c’est cela que les IA ne peuvent pas simuler : l’impact de l’expérience vécue, la responsabilité assumée, le lien humain.
Dans un monde saturé de réponses prêtes à l’emploi, notre valeur réside dans notre capacité à poser les bonnes questions — et à tenir la tension qu’elles révèlent.
😘
Crédit photp : Google DeepMind sur Unsplash