attaque adverse
- Domaines
-
- informatiquedélit informatique
- intelligence artificielle
- Dernière mise à jour
Définition :
Action malveillante consistant à fournir à un modèle d'intelligence artificielle, lors de sa phase de production, des données d'entrée légèrement modifiées par rapport aux données originales, dans le but de provoquer des décisions erronées ou inattendues de la part du modèle.
Notes :
Il est généralement impossible pour un humain de percevoir la différence entre les données d'entrées originales et celles qui, dans le contexte d'une attaque adverse, ont été altérées.
Une attaque adverse pourrait par exemple consister à modifier de manière imperceptible une image représentant une pomme, de sorte qu'un modèle de reconnaissance d'images la classifie à tort comme une orange.
Termes privilégiés :
- attaque adverse n. f.
- attaque antagoniste n. f.
- attaque par exemples contradictoires n. f.
Terme déconseillé :
- attaque adversariale
-
Le terme attaque adversariale, calqué sur l'anglais adversarial attack et d'emploi récent dans la documentation spécialisée, n'est pas acceptable. En effet, adversarial n'est pas un adjectif qui existe en français.
Traductions
-
anglais
Auteur : Office québécois de la langue française,Termes :
- adversarial attack
- adversarial examples attack
- adversary attack
Le terme adversary attack est peu fréquent dans l'usage.