Intelligence artificielle et Coaching : Menaces et opportunités…
Intelligence artificielle et Coaching : Menaces et opportunités…
Paul Delahaie et Catherine Tanneau, associés et dirigeants de Variations International, cabinet de conseil et de coaching et de l’école Activision Coaching Institute ont mené l’enquête pour vous…. L’utilisation généralisée de l’Intelligence Artificielle (ou IA) s’est subitement accélérée en ce début d’année 2023 avec la mise sur le marché de ChatGPT qui est venu s’ajouter à d’autre robots conversationnels utilisant l’IA.
Le coaching est particulièrement concerné par ce nouvel outil. Le langage étant l’outil du coach, l’IA va jouer un rôle essentiel dans l’évolution des pratiques à tel point qu’on peut s’interroger sur la capacité de la machine à remplacer les coachs. Même si ce n’était pas le cas, l’IA va offrir de nouvelles possibilités pour le coaching. Et alors que beaucoup de coaches n’ont pas encore utilisé ce type d’outils, il nous semble intéressant de mieux en comprendre les tenants et aboutissants.
Ce sujet nous a mobilisé et nous avons souhaité faire un point le plus complet possible sur les menaces et les opportunités que l’IA représente pour le coaching professionnel.
Sommaire
- Introduction
- Chapitre 1 : Quelles sont aujourd’hui les limites de ces outils ? Et quels sont les risques de l’utilisation de l’IA et des outils intégrant de l’IA coaching ?
- Chapitre 2 : Quels sont les arguments de ceux qui pensent que l’IA va progressivement apprendre et devenir une vraie alternative à la présence du coach ?
- Chapitre 3 : Comment utiliser l’IA à bon escient tout en préservant un rôle indispensable à l’humain ?
- Conclusion et références
Introduction et observations
En guise d’introduction, nous souhaitons clarifier les principales notions utilisées dans cet article. Notamment quand nous évoquerons l’Intelligence Artificielle, le coach IA et le coaching traditionnel. Nous nous appuierons sur une étude récente. Elle a été menée par les chercheurs des Universités de Sciences appliquées de Victoria International et de SRH Berlin. Ils ont étudié les potentielles applications de l’intelligence artificielle en coaching (les références seront données à la fin de l’article).
Dans la suite de cet article, nous parlerons de coaching en faisant référence aux modalités de coaching traditionnelles, c’est-à-dire humaines. Ces conversations de coaching consistent en une relation entre le coach et son client ou un groupe/équipe de clients. Elles débutent par la définition d’objectifs, de projets à mener ou de réflexions concernant des questions de vie professionnelle ou personnelle que les clients souhaitent mener avec l’accompagnement d’un/une coach professionnel(le).
Entrée en matière sur l’IA
L’intelligence Artificielle ou IA se caractérise par le développement d’algorithmes qui reproduisent des fonctions cognitives avec un degré de complexité semblable à celui des humains. On a traditionnellement observé la capacité des IA à :
- Effectuer des tâches plus ou moins difficiles et spécialisées,
- Ou à résoudre des problèmes plus ou moins complexes.
Nous avons tous testés des applications sur nos téléphones ou sur les sites de nos banques ou d’autres prestataires de services.
De nouvelles dimensions de l’IA se développent avec la capacité à :
- Apprendre pour améliorer sa propre performance (machine-learning),
- Ou à créer du texte ou des images sans avoir besoin d’intervention des programmeurs.
Rien d’étonnant donc de voir apparaître des outils qui incluent des composantes d’IA au service des métiers RH (recrutement et gestion de carrière) et du coaching.
Ainsi, nous avons recensé un certain nombre d’outils et des applications qui s’autoproclament « Coaching avec l’IA » ou « Coach IA » où la relation « humain – humain » est remplacée par une relation « humain-machine (robot) ». Ce robot prend parfois des allures d’humanoïde souriant et surtout se rend disponible 24H/24 n’importe où et sur tout type de support : téléphone, tablettes ou ordinateurs…
Ce développement fait déjà naître beaucoup de questions. Il fait émerger des risques sur lesquels nous allons nous pencher dans le chapitre 1 avant d’explorer ensuite les potentiels bénéfices ou complémentarités du coaching augmenté avec l’IA.
Enfin, l’IA, comme toutes les technologies novatrices ou de rupture (internet, les smartphones, les réseaux sociaux…), s’accompagne de nombreuses expérimentations et spéculations économiques. Ces différents tests auront un avenir plus ou moins prometteur au moment de leur passage à l’échelle. Il s’agira alors de déterminer leur réelle valeur ajoutée, leur impact social et éthique, et leur potentielle durabilité.
Chapitre 1 : quelles sont aujourd’hui les limites et les risques de l’utilisation de « l’IA coaching » ?
1.1 L’Intelligence artificielle ne ressent pas les émotions
L’absence d’humain engendre un manque d’émotions
Tout d’abord, la première limite de l’IA est bien sûr l’absence d’interlocuteur humain. Donc, l’absence de ressenti émotionnel du « robot coach ». Comment vont réagir les coachés au cours d’un coaching face à une machine ? En fait, nous avons déjà l’expérience de ce type d’interactions. Nos téléphones ou les enceintes connectées sont déjà équipés de reconnaissance vocale. Ces derniers ont la capacité de nous communiquer des informations par oral, depuis des années.
Pour certains d’entre nous, l’échange avec un robot est agaçant voire rebutant. Pour d’autres, nous avons appris à nous en servir et cela fait partie de notre quotidien. Les concepteurs de ces programmes coaching savent d’ailleurs qu’il est utile de proposer deux types d’interface :
- Un avatar qui échange par oral,
- Ou une fenêtre de dialogue (chatbox) qui propose de converser par écrit. Cela permet éviter la voix métallique de l’avatar qui évoque encore trop les robots.
Le deuxième type de limite porte sur la relation de confiance nécessaire à la relation de coaching. C’est fondamental !
Le coaché interagit avec le ressenti et la sensibilité du coach. En particulier, le coaché peut se sentir plus en confiance avec un être humain qui peut être d’autant plus présent et crédible qu’il est lui-même faillible et vulnérable. La machine ne ressent pas et n’est pas consciente, alors que le ressenti de la coach, les émotions qu’elle éprouve sont des ressources au cours d’une séance de coaching et interagissent avec le coaché. Plus encore, des capacités humaines sont encore difficilement modélisables par l’IA :
- la créativité, la capacité à sortir du champ de la discussion,
- aller au-delà des mots, au-delà du strict contenu des échanges,
- questionner ce qui n’est pas dit et à stimuler la créativité du client en l’aidant à apporter des éléments nouveaux,
Enfin, une autre limite est le risque de standardisation des séances
Enfin, les débats portent sur le risque de standardisation des sessions de coaching. L’IA va certes se développer avec le nombre croissant de séquences de coaching qui enrichira les bases de données. Mais la conception même des programmes – inférer des séquences d’interactions à partir de sessions stockées – risque de produire des parcours de coaching réduits aux dénominateurs communs.
À l’inverse, une récente enquête menée par une plateforme de coaching qui a testé l’outil IA auprès de ses clients révélait que certains d’entre eux préféraient un coach IA, pour son objectivité, son absence de biais et son côté rassurant car prévisible.
On peut ainsi imaginer que, dans le futur, les clients puissent être amenés à choisir, lors d’une session exploratoire, entre un coach humain et un coaching IA…
Les risques déontologiques et éthiques
Les limites techniques de l’IA peuvent donc être un frein à son développement en tant qu’alternative au coaching « humain ». Mais les questions déontologiques seront peut-être un obstacle encore plus important.
La confidentialité ne peut être garantie à 100%
La propriété des données et leur hébergement sont bien sûre une des premières questions. Le sujet existe déjà pour des données « neutres » comme les identités et les informations sur chacun d’entre nous. Il est d’autant plus crucial pour des contenus de séances dont la confidentialité est impérative. Il s’agit en effet, d’une condition sine qua non de la confiance des clients. Où et comment seront hébergées les données collectées lors de sessions de coaching assistées par l’IA ? Qui en sera propriétaire ? Quelles seront les conditions de leur utilisation ?
Imaginons par exemple que le DRH, la Direction d’une grande entreprise souhaite avoir une synthèse des sujets abordés lors des sessions vécues par ses collaborateurs. Les informations peuvent être précieuses pour comprendre les attentes de cette population, les préoccupations qu’elle exprime, le climat social… Le principe d’une restitution même anonymisé est-il envisageable ? Même sur des synthèses, à partir de combien de coaching peut-on considérer la confidentialité ?
Comme il n’existe actuellement aucune réglementation, chaque entreprise peut adopter des règles différentes, plus ou moins contraignantes qui n’assurent pas la même protection et sécurité des clients. Qui va être la référence pour ces pratiques : les fédérations de coaching comme l’ICF – l’International Coaching Federation ou l’EMCC – l’association Européenne de Coaching et de Mentoring ? Les états, les instances européennes ou internationales, un organisme indépendant transnational ? Un peu tout cela ? Les débuts de régulation de l’IA au niveau européen donnent une première indication sur l’encadrement à envisager sur ces pratiques.
Le risque de dépendance à l’Intelligence artificielle est réel…
Les premières expériences montrent un réel risque de dépendance du coaché vis-à-vis du coach. Les coachs professionnels connaissent bien ce risque. Ils sont d’ailleurs normalement formés pour :
- L’anticiper,
- Le traiter,
- Et résoudre les difficultés qu’il peut poser.
Un coaching est délimité dans le temps. Ainsi, la coach doit s’assurer de la construction d’une autonomie du coaché au long de sessions. La supervision est aussi une garantie contre ce type de dérive. Mais il reste que la disponibilité d’un interlocuteur neutre, bienveillant, disponible tous les jours (et nuits…) peut devenir addictive, fût-il une machine.
Le film « HER » sorti en 2013 décrit parfaitement ce sentiment amoureux qui naît chez Théodore, fragilisé par son divorce, pour Samantha une intelligence artificielle compréhensive et disponible…
Lors d’une récente conférence, Olive Malafronte, concepteur de PocketConfidant, un outil d’IA de coaching expliquait avoir observé chez un utilisateur testant son programme :
- Une première période d’utilisation intensive de l’outil, pendant et en dehors des heures de travail,
- Puis une auto-régulation. En effet, c’est comme si la fréquentation régulière de l’outil lui avait permis d’intégrer des modes de raisonnement ainsi que des réflexes cognitifs qui rendaient moins utile l’utilisation de l’outil.
En effet, si la machine n’éprouve pas d’émotions, elle peut les mobiliser au cours de la séance. Elle peut par exemple être programmée pour poser la question « Que ressentez-vous ? » quand la coachée exprime une crainte, disons de présenter une nouvelle difficile à un collaborateur. Avec sa capacité d’analyse sémantique, la machine peut conduire la coachée à explorer son émotion, la conscientiser et orienter une réflexion sur la façon de traiter le sujet. C’est donc l’efficacité même de la machine qui peut devenir un risque de dépendance, voire de manipulation.
… De même que celui de pratiques non éthiques voire malhonnêtes.
Viennent ensuite des questions, plus inquiétantes sans doute, sur l’intégrité des pratiques de coaching. Les grandes associations professionnelles de coaching internationales (ICF, EMCC, AC…) ont défini :
- Un cadre précis avec des règles déontologiques,
- Un corpus de compétences,
- Des parcours de formation,
- Des critères de certification,
- Et des bonnes pratiques visant à protéger les clients comme la supervision des coachs ou le recours à des Comités d’éthiques indépendants.
En particulier, ce cadre précise la différence du coaching avec le conseil, la thérapie, la formation avec lesquels le coaching ne doit pas être confondu…. Actuellement, n’importe qui peut prétendre être coach. Même sans aucune formation, n’importe qui peut lancer son activité, souvent dans une grande confusion avec d’autres pratiques (le conseil, la thérapie, le développement personnel…)
Rien n’empêchera, à l’avenir, que ces praticiens qui se veulent spécialistes de diverses formes de relation d’aide, intègrent dans leurs approches des protocoles pilotés par l’IA avec quelques dangers pour leurs clients non avertis…
Plus grave encore sont les risques de biais et de manipulation liés à l’Intelligence artificielle
Ces risques vont être renforcés par la capacité croissante de la machine à conduire des entretiens et à apprendre au fur et à mesure. En ce qui concerne les biais, ils sont inévitables, les concepteurs d’IA doivent les conscientiser. Les sujets de genre, d’origine sociale, de culture sont évidemment présents dans les expressions, les analyses et les questions du coach autant que dans les perceptions du coaché. Il est inévitable qu’ils se retrouvent dans les programmes à base d’IA.
Des expériences regrettables (racisme, promotion de valeurs haineuses…) ont été déjà constatées dans les premiers essais d’utilisation d’IA à grande échelle. On peut aussi évoquer les risques « d’hallucination » de l’IA qui invente des faits, des citations crédibles parce que reposant sur des informations collectées sur le net, mais parfaitement inventées et fausses.
La manipulation est évidemment un risque majeur, en particulier dans certains pays où la maîtrise de la pensée de chacun est un enjeu sécuritaire. La relation intime et de confiance, qui est le propre d’une séance de coaching, le travail sur les représentations, les croyances… Les valeurs qui constituent une partie importante du travail avec la personne coachée sont des vecteurs évidents de manipulation.
Au-delà bien sûr des questions de confidentialité déjà abordées, il est clair que l’IA peut être programmée pour :
- Orienter les questions,
- Censurer des sujets,
- S’attaquer à des croyances ou à des valeurs considérées comme « déviantes » par un pouvoir autoritaire ou toute organisation sectaire… souhaitant influencer le corps social.
Sans aller jusqu’à ces questions extrêmes, on peut s’interroger sur l’existence d’un acteur économique qui disposerait des moyens financiers et des données nécessaires pour avoir, comme Google aujourd’hui, un quasi-monopole de marché ? Certaines plateformes de coaching telles que BetterUp, Coach Hub ou Ezra pourraient être en mesure de la faire un jour…
1.3 Vers une auto-régulation du métier de coach assisté par l’Intelligence Artificielle ?
Les concepteurs d’IA appliquée au coaching sont donc confrontés à la question de définir le cadre déontologique des coachings assistés par l’IA. Ils doivent préciser les règles éthiques qui seront paramétrées dans leurs machines pour conduire des entretiens de coaching. S’assurer de la protection :
- Des coachés,
- Du cadre de confiance,
- De la confidentialité et de l’absence de jugement,
- D’intention prédictive ou d’orientation prédéfinie…
Les principes d’un code d’éthique pour une IA de confiance (Ethics Guidelines for a Trustworthy AI) ont été définis par un groupe de travail du Conseil de l’Europe (voir références ci-après). Ils comprennent bien sûr :
- Le respect des droits humains fondamentaux tels que nos démocraties occidentales les définissent,
- Ainsi, que quelques règles de base comme le respect pour l’autonomie individuelle, le devoir de ne pas nuire, l’équité, etc.
Une application de ces règles éthiques dans le coaching est en cours de définition au niveau international par les associations de coaching.
L’International Coaching Federation, en tant que première fédération mondiale du coaching, a déjà lancé plusieurs études sur le sujet. Le comité IA et digital d’ICF France est engagé depuis 2018 sur une réflexion de fond autour du digital et de l’Intelligence Artificielle dans le métier de coach en lien avec d’autres chapitres d’ICF dans le monde. L’EMCC, via son Centre d’Excellence sur l’IA mène aussi des travaux de recherche sur ce sujet. (Voir liens en référence).
On peut bien sûr s’interroger sur ce qui se passerait si ces codes n’étaient pas respectés par les coachs IA ou les outils de coaching utilisant l’IA ? Qui pourrait superviser la machine pour s’assurer qu’elle n’hallucine pas, qu’elle ne dévie pas, qu’elle respecte le code déontologique… Anticiper ces possibles dérives pour mieux les éviter sera un des défis majeurs pour les autorités régulatrices. À savoir, les associations de coachs et plus généralement tous les professionnels des métiers en lien avec les Ressources Humaines.
En conclusion, préliminaire de cette première partie sur l’intelligence artificielle…
Nous pouvons souligner que le coaching avec l’IA présente assurément de nombreux risques parmi ceux-ci celui de ne plus être tout à fait du coaching….
Plus de 30 outils de coaching utilisant l’IA ont été recensés sur le marché. L’IA évolue vite et il est probable que, dans les années à venir, elle puisse apporter une réelle valeur ajoutée à nos métiers. Même si pour l’instant ce n’est pas encore le cas. Beaucoup sont encore au stade de robots conversationnels ou d’applications assez basiques… Mais certains s’annoncent prometteurs de véritables conversations de type coaching.
Nous en avons testé certains et vous trouverez :
- Une synthèse de nos analyses dans le chapitre suivant,
- Ainsi qu’un état de l’art sur le potentiel de l’IA pour nos métiers…
Il nous semble que ces IA-coachs ne sont pas encore assez évoluées pour se substituer aux humains. Mais nous explorerons, dans le prochain chapitre, les arguments de ceux qui pensent que l’IA va révolutionner notre métier… Et nous étudierons des options pour s’y préparer.
Références et liens cités dans ce chapitre :
- Principes éthiques pour une IA de confiance (Ethics guidelines for trustworthy AI): Council of Europe’s Ethical Frameworks for the Application of Artificial Intelligence
- Publications du Thought Leadership Institute d’ICF sur l’IA et le coaching : https://thoughtleadership.org/more-work-can-be-done-to-understand-the-ethical-use-of-ai-in-the-future-of-coaching/
- Comité IA et digital ICF France : https://www.coachfederation.fr/commissions/intelligence-artificielle/
- Centre d’excellence pour IA et digital EMCC : https://www.emccglobal.org/leadership-development/ai-digital/
Prochaine parution en Aout : INTELLIGENCE ARTIFICIELLE ET COACHING : MENACES ET OPPORTUNITES … CHAPITRE 2
Restez connectés !
Autres articles
Article précédent :
Les managers sont-ils appelés à devenir des coachs de leurs collaborateurs ?
Article suivant :