150 professionnels du coaching se sont réunis au Grand Central à Marseille pour la journée de professionnalisation de l’ICF – la JPro ICF 2025. avec une même question en tête : l’intelligence artificielle va-t-elle remplacer les coachs ou bien transformer notre métier ?
Après une journée riche de conférences, d’ateliers et de débats, la réponse est nuancée. Et elle devrait rassurer… tout en nous alertant.
Pourquoi ? Parce que l’IA transforme effectivement le coaching, mais pas comme on l’imagine. Les données présentées lors de cet événement clé de la profession révèlent un paradoxe : l’IA excelle dans certains domaines, mais échoue là où l’humain est irremplaçable.
Dans cet article, nous décryptons ensemble les conclusions de cette journée, les opportunités qui s’ouvrent et les risques à anticiper. Si vous êtes coach, responsable RH, ou simplement curieux de l’avenir du développement professionnel ou simplement curieux, je vous souhaite une bonne lecture.
Le paradoxe de la performance
Les chiffres présentés lors de la JPro ICF 2025 peuvent donner le vertige.
En effet, le ROI d’un coaching hybride (combinant intelligence humaine et artificielle) atteint 574% en 6 à 12 semaines, contre 570% pour un coaching classique… mais sur 6 à 12 mois. L’impact est similaire, mais l’IA accélère drastiquement le processus.
En d’autres termes : les résultats sont identiques, mais obtenus 3 à 6 fois plus vite avec l’introduction de l’IA dans le processus.
Olivier Malafonte, qui a soutenu sa thèse sur le coaching augmenté en juin 2025, a présenté des recherches tout aussi stupéfiante sur la thérapie assistée par IA. En 2024, l’IA seule réduit les symptômes anxio-dépressifs de 40%, contre 45% pour un clinicien humain. La différence semble mince. Pourtant, un élément fondamental différencie les deux approches : l’impact humain dure dans le temps, pas celui de l’IA.
Le changement identitaire des coachs
Anna Galoti, un brin provocatrice dans son rôle d’animatrice, a posé la question suivante : « À quoi sert-on comme coach ? » Pour elle, l’IA représente un véritable changement identitaire pour la profession. Sa réponse : les coachs sont des « architectes de transformation ». Pas des dispensateurs de conseils ou des résolveurs de problèmes ponctuels, mais des accompagnateurs de transformations profondes et durables.
Cette distinction est cruciale. Car l’IA excelle dans la partie technique du coaching : formulation d’objectifs, structuration des sessions, disponibilité permanente, coût accessible (12-15€/mois). Mais elle échoue là où l’humain est essentiel : confrontation bienveillante, coaching collectif, lecture du non-verbal, intuition face au non-dit, intelligence émotionnelle incarnée….
Les risques de la dépendance cognitive
Les données d’utilisation révèlent des tendances préoccupantes. En effet, en juin 2025, 10% de la population mondiale utilise ChatGPT. 51% des utilisateurs lui demandent conseil pour prendre des décisions importantes. La Gen Z représente 50% des interactions, créant un risque réel de dépendance cognitive car elle grandit avec l’IA comme interlocuteur privilégié.
Des études du MIT (novembre 2024) et de Harvard (mai 2025) confirment ces craintes. Si l’IA augmente la productivité (+40% de brevets produits), elle diminue drastiquement la satisfaction au travail (-80%). Plus inquiétant encore : les utilisateurs réguliers perdent leur motivation intrinsèque, leur joie de découvrir par eux-mêmes. Ils s’ennuient sans IA car elle créée une forme de dépendance.
Nicolas Bassan a introduit un concept clé : le risque « sycophantique » de l’IA. Contrairement à un coach humain qui confronte et challenge, l’IA tend à nous dire ce que nous voulons entendre, à confirmer nos biais. Elle gomme la pensée critique et uniformise les réponses, gomme les colorations individuelles créant une standardisation de la pensée.
L'impératif éthique
Les experts présents ont été unanimes sur un point : l’usage de l’IA en coaching exige un cadre éthique rigoureux. Cinq principes non-négociables ont émergé des discussions :
- Transparence absolue : l’utilisation de l’IA doit être explicitement mentionnée dans le contrat de coaching.
Le client a le droit de savoir :
- Si et comment le coach utilise l’IA (avant, après, jamais pendant la séance)
- Quels outils sont utilisés
- À quelles fins (préparation, reformulation, analyse)
- Quelles données sont traitées
La transparence ne se négocie pas. Elle est le fondement de la relation de confiance.
- Protection des données : conformité RGPD et anonymisation systématique des données.
Les données d’un coaching sont sensibles par nature. Aussi, l’utilisation de l’IA introduit de nouveaux risques :
- Fuite de données via des outils non sécurisés (ChatGPT standard par exemple)
- Entraînement de modèles avec nos données
- Traçabilité et stockage
Voici les solutions recommandées :
- Utiliser des outils sécurisés (LM Studio, licences Copilot ultra-sécurisées ou autre de ce type)
- Anonymiser systématiquement les données
- Contextualiser chaque compte rendu (rôle, enjeux du client)
- Ne jamais utiliser d’outils grand public sans garanties
- Consentement éclairé : le client doit comprendre les implications de l’IA dans son parcours :
- Avantages (efficacité, structuration, suivi)
- Limites (absence d’intuition, risque sycophantique)
- Risques (dépendance, uniformisation de la pensée)
- Alternatives (coaching 100% humain)
Le consentement éclairé n’est pas une case à cocher, c’est une conversation approfondie.
- Jamais pendant la séance : l’IA altère la présence, outil premier du coach.
Ce principe a fait l’unanimité parmi les professionnels présents. Utiliser l’IA pendant la séance :
- Altère la présence, outil premier du coach
- Introduit un tiers dans la relation
- Réduit l’intuition et la lecture du non-verbal
- Transforme le coach en « opérateur » plutôt qu’en partenaire
L’IA peut être utilisée AVANT (préparation) ou APRÈS (synthèse), mais la séance elle-même reste un sanctuaire de la relation humaine.
- Supervision humaine : la question « qui supervise l’IA ? » reste centrale. L’IA ne peut pas s’auto-réguler. Elle nécessite :
- Une supervision éthique par des humains formés
- Des audits réguliers de ses recommandations
- Une vigilance sur les biais algorithmiques
- Une réflexion continue sur son usage
l’ICF (International Coach Federation) recommande la mise en place de comités d’éthique IA dans les organisations qui utilisent massivement ces outils.
Les scénarios du futur
Trois scénarios se dessinent pour l’avenir du coaching :
Polarisation : un coaching « low-cost » assisté par IA pour les approches comportementales simples, et un coaching « haut de gamme » ultra-personnalisé pour les transformations profondes. Les coachs devront choisir leur positionnement.
Démocratisation : l’IA permettra d’étendre le coaching à des populations qui n’y ont pas accès aujourd’hui, créant un marché totalement nouveau.
Transformation identitaire : le coaching ne pourra plus se limiter à un parcours de point A à point B. Il devra embrasser sa fonction transformative à une échelle plus systémique, travaillant sur le sens, l’identité, la place de l’humain dans un monde hybride.
Conclusion
L’IA n’est ni une menace ni une panacée. C’est un outil puissant qui nous invite à monter en excellence sur ce qui fait notre spécificité humaine. Comme l’ont rappelé plusieurs intervenants, « prendre soin de l’humain, c’est faire de la performance qui génère l’innovation. »
Le temps libéré par l’IA doit être réinvesti dans ce qui crée de la valeur humaine irremplaçable : les relations de travail, le sentiment d’appartenance, la reconnaissance, le sens. Se sentir utile et relié en tant qu’humain.
L’avenir du coaching n’est pas dans la résistance à l’IA ni dans son adoption aveugle. Il est dans l’intégration consciente, éthique et au service de ce qui nous rend profondément humains : notre capacité à transformer, à donner du sens, à créer des liens authentiques.