L'IA explicable ne se contente pas de fournir une décision ou une prédiction, elle donne également confiance aux utilisateurs en expliquant comment la solution a été déterminée.
…
Qu'est-ce que l'IA explicable ?
Les algorithmes d'IA sont conçus et entraînés (et réentraînés) pour fonctionner avec précision. Cependant, le fonctionnement de l'algorithme n'est généralement pas clair pour les utilisateurs. Une étude de McKinsey datant de 2020 a montré que cette ambiguïté entraînait des taux d'adoption inférieurs aux prévisions, car les utilisateurs n'avaient pas confiance dans le système. Il n'est pas difficile à comprendre. Un responsable du service clientèle et de la satisfaction des clients ne voudra pas faire confiance à une solution qui ne donne pas d'aussi bons résultats qu'un agent humain. En outre, si l'IA contrôle les démarrages et les arrêts d'un équipement lourd susceptible de causer des blessures graves à ses opérateurs, ces derniers voudront savoir qu'elle sera à la hauteur lors de l'embrayage.
Michael Wu, stratège en chef de l'IA à PROSIl considère l'IA explicable comme "le dernier coup de pouce pour obtenir l'adhésion des dirigeants". "Alors que de plus en plus d'entreprises adoptent un mode de fonctionnement axé sur le numérique, l'IA explicable apparaîtra comme un catalyseur majeur pour obtenir l'adoption par les dirigeants d'outils basés sur l'IA", déclare-t-il. "Au départ, le facteur de peur persistera - les entreprises auront encore peur de céder tout contrôle à l'IA décisionnelle. Cependant, celles qui utiliseront l'IAO pour surmonter cette peur gagneront en efficacité et en avantage concurrentiel sur le marché, ne laissant à celles qui étaient auparavant paralysées par la peur d'autre choix que d'adopter elles-mêmes des solutions d'IA."