Depuis des années, le secteur CX s’est mis à déployer l’IA au service des clients. Les équipes se sont empressées de lancer des chatbots avant qu’ils ne soient prêts, d’intégrer des robots vocaux dans des parcours de service interrompus et d’introduire une automatisation qui n’était pas intégrée dans les systèmes sur lesquels les agents s’appuient tous les jours. Le résultat ? L’IA est trop souvent associée aux frictions, à la confusion, aux impasses et à la frustration des clients.
En essayant d’innover rapidement, la confiance a été involontairement endommagée en cours de route, parmi les clients, les agents et même les dirigeants. Aujourd’hui, alors que l’IA est enfin capable de fournir une assistance véritablement intelligente, agentique et humaine, les équipes CX doivent combler le manque de connaissances qui est à l’origine de la méfiance à l’égard de l’IA. À la recherche d’une efficacité alimentée par l’IA, le déploiement a largement dépassé l’éducation. En conséquence :
- Souvent, les clients ne comprennent pas ce que l’IA moderne peut faire.
- Souvent, les agents ne savent pas quels sont les outils qui utilisent l’IA.
- De nombreux dirigeants ne savent pas comment mesurer la valeur ou obtenir l’adhésion.
La prochaine phase de la transformation de l’IA ne consistera pas à ajouter plus de technologie, mais à démystifier l’IA déjà en place, afin que chaque partie prenante puisse lui faire confiance – et tirer le meilleur parti de son incroyable potentiel.
Les clients pensent encore que l’IA = « ce méchant chatbot ».
Si l’IA a évolué, la perception des consommateurs, elle, n’a pas changé. Pour de nombreux clients, l’ »IA » est synonyme de chatbot frustrant, incapable de comprendre le contexte, d’accéder aux informations relatives à leur compte et de les aider à résoudre des problèmes un tant soit peu complexes.
Aujourd’hui encore, les consommateurs affirment que la seule chose que l’IA fait mieux qu’un humain est de répondre plus rapidement. Plus rapide… mais pas meilleur.
En réponse, les clients ont appris les raccourcis. Beaucoup « jouent » avec le système en tapant immédiatement « agent », « humain » ou « représentant », évitant ainsi le robot avant même qu’il n’ait une chance de vous aider. Ils sont conditionnés à ne pas lui faire confiance.
Si les clients ne comprennent pas l’IA et n’en ont connu que le pire, pourquoi croiraient-ils que les choses ont changé ?
Pour changer l’attitude des clients, il ne suffit pas d’améliorer la technologie. Nous avons besoin de transparence, de définir des attentes et de subtiles incitations comportementales qui montrent – et non pas disent – que l’IA peut les soutenir efficacement.
Mais Voici le vrai coup de théâtre : les agents ne ne comprennent pas non plus l’IA
On pourrait s’attendre à ce que les agents de première ligne, qui travaillent tous les jours avec des outils d’IA, soient les mieux informés. Mais l’inverse est vrai.
Notre rapport Rapport sur la voix de l’agent a révélé que seuls 35 % des agents déclarent savoir clairement quels sont les outils qui utilisent réellement l’IA. La plupart d’entre eux interagissent quotidiennement avec l’IA, mais ne parviennent pas à déterminer l’endroit où elle apparaît dans leur flux de travail ou la valeur qu’elle apporte.
Et pourtant… 44% des agents déclarent que l’IA leur est utile dans leurs tâches quotidiennes. Ils en ressentent les avantages – réduction des tâches administratives, amélioration de l’information, traitement plus rapide, mais ils identifier rarement la source de ces améliorations induites par l’IA.
Ce manque de clarté alimente une contradiction émotionnelle encore plus grande :
- 55 % des agents craignent que l’IA ne modifie ou ne remplace leur travail
- 48 % souhaitent l’introduction d’un plus grand nombre d’outils dotés d’IA
Il ne s’agit pas d’un rejet. C’est de la curiosité sans clarté. Les agents sont prêts, voire impatients, d’adopter l’IA, mais ils ont besoin d’être rassurés, de connaître le contexte et d’être formés pour se sentir en confiance.
Les différences entre les générations sont importantes : L’IA n’est pas une taille unique
La sensibilisation à l’IA est élevée, mais le confort est inégal. La formation et l’adoption doivent tenir compte de ces modèles générationnels :
La génération Z et les milléniaux : Enthousiastes mais anxieux
- Plus de 60 % utilisent des outils d’IA tels que ChatGPT ou Gemini (principalement en dehors du travail).
- Ils sont optimistes et expérimentaux.
- Mais 55 % d’entre eux sont également les plus préoccupés par l’impact à long terme sur l’emploi.
Ils sont désireux d’apprendre si les employeurs leur donnent les moyens de le faire en toute sécurité.
Génération X : Une curiosité prudente
- Ils en voient les avantages mais peinent à en comprendre l’application pratique et quotidienne.
- Un apprentissage clair et pratique est essentiel.
Les baby-boomers : Peu d’utilisation, peu de confiance
- Près de six personnes sur dix n’utilisent pas du tout d’outils d’IA.
- Nombreux sont ceux qui considèrent que l’IA n’a rien à voir avec leur rôle, ce qui crée de la distance et de la méfiance.
Le fil conducteur : Un déficit massif de formation
- 40 % des agents n’ont pas reçu de formation à l’IA mais souhaitent en recevoir une.
- 33 % ne l’ont pas fait et ne pensent pas en avoir besoin (généralement parce qu’ils ne savent pas où l’IA apparaît dans leur travail).
- Le leadership reflète cette tendance : 59 % des responsables de centres de contact admettent qu’ils ne fournissent pas de soutien continu pour aider les agents à naviguer dans les flux de travail de l’IA.
Il s’agit d’une crise de la connaissance et non d’une crise technologique. Et les lacunes en matière de connaissances engendrent la peur.
Pourquoi l’IA semble encore « dangereuse » pour les agents
Lorsque les agents parlent de l’IA, ils citent souvent les pires exemples, car ce sont les plus visibles :
« L’IA a activement rendu la tâche plus difficile en aidant les fraudeurs et en désinformant le public ».
« Je ne veux pas travailler pour des entreprises qui utilisent l’IA. Cela me stresse et agace les clients. »
Ces déclarations ne découlent pas de la technologie elle-même. Ils découlent d’une mauvaise mise en œuvre, d’un manque de formation et d’une absence de transparence.
Nous plaçons l’IA à l’avant des parcours de rupture, et non dans les coulisses où elle excelle.
Les agents voient rarement l’IA intégrée qui améliore le routage, les prévisions, la gestion des connaissances ou l’analyse. Ils ne voient que les parties qui frustrent les clients, et doivent ensuite gérer les retombées.
L’IA ne suscite pas la méfiance. Une mauvaise intégration et une mauvaise explication le font.
Pour aller de l’avant, nous devons rétablir la confiance dans l’IA – et non reconstruire la pile technologique
L’IA moderne est capable, elle est agentique, elle est contextuelle et elle peut s’intégrer profondément dans les systèmes. Mais tout cela n’a pas d’importance si les personnes qui l’utilisent ne lui font pas confiance.
La priorité est désormais l’éducation : aider les clients, les agents et les dirigeants à comprendre ce qu’est réellement l’IA, où elle apparaît et comment elle soutient, et non remplace, les capacités humaines.
La confiance en soi ne vient pas du codage. Elle provient de l’entraînement.
Que peuvent donc faire les dirigeants ?
Voici cinq moyens pratiques de démystifier l’IA et de rétablir la confiance !
- Rendez l’IA visible – et non mystérieuse : Montrez aux agents quels sont les outils qui utilisent l’IA et quelles sont les tâches gérées par ces modèles. Étiquetez-le. Mettez-le en évidence. Célébrez-la.
- Intégrer la maîtrise de l’IA dans l’intégration et le coaching continu : L’IA ne devrait pas être une surprise. Intégrez-le à la formation, à l’assurance qualité, aux entretiens individuels et aux conversations sur le développement.
- Offrez à chaque génération une expérience pratique sur mesure : De courtes démonstrations pour les baby-boomers, des explorations approfondies pour les milléniaux, des séances de création en bac à sable pour la génération Z.Des niveaux de confort différents nécessitent des approches différentes.
- Repenser le parcours client pour rétablir la confiance : Utilisez des incitations ! Expliquez ce que le robot peut faire, offrez le choix entre le libre-service et l’assistance humaine et présentez des indicateurs de réussite (« Notre assistant a résolu ce problème pour 89 % des clients aujourd’hui »). La confiance s’installe lorsque l’IA fait ses preuves.
- Considérez l’IA comme un outil d’assistance et non comme une menace : Célébrez les tâches que l’IA supprime : tâches administratives, travail après appel, processus répétitifs. Positionner l’IA comme un bouclier qui protège les agents du stress, et non comme un substitut.
L’avenir de l’IA dans le CX appartiendra aux organisations éduquées
L’IA n’est pas près de disparaître, mais les organisations qui prospèrent ne sont pas celles qui sont les plus automatisées. Ce seront ceux qui auront le plus de compréhension, où les clients feront confiance à l’expérience, les agents aux outils, et les dirigeants pourront investir en toute confiance parce qu’ils en connaissent la valeur.
Pour rétablir la confiance, nous devons passer de la question « Quelle IA devrions-nous déployer ensuite ? » à la question « Comment aider les gens à comprendre l’IA qu’ils utilisent déjà ? C’est là la véritable transformation, qui commence par l’éducation, la transparence et la conception centrée sur l’homme.
Pour en savoir plus sur ce que les agents pensent réellement de l’IA et sur la manière de les accompagner dans la prochaine phase de transformation, téléchargez l’intégralité du rapport Voice of the Agent ici.

