interprétabilité
- Domaine
-
- intelligence artificielle
- Dernière mise à jour
Définition :
Degré auquel le fonctionnement interne et le processus décisionnel d'un modèle d'intelligence artificielle peuvent être directement compris par un humain.
Notes :
Une interprétabilité élevée est notamment associée aux arbres de décision et aux modèles de régression linéaire, des modèles simples dont le fonctionnement peut être compris sans le recours à des techniques d'explication externes.
Dans la littérature spécialisée, l'interprétabilité est parfois considérée comme une forme particulière d'explicabilité, dans la mesure où comprendre le fonctionnement interne d'un modèle permet d'expliquer pourquoi et comment celui-ci prend des décisions ou génère des résultats. En outre, cette proximité conceptuelle explique que les deux notions soient parfois confondues.
L'interprétabilité constitue le fondement de l'intelligence artificielle interprétable.
Terme privilégié :
- interprétabilité n. f.
Traductions
-
anglais
Auteur : Office québécois de la langue française,Terme :
- interpretability