chaîne de Markow
- Domaines
-
- intelligence artificielle
- mathématiques
- Dernière mise à jour
Définition :
Processus probabiliste selon lequel un système passe d'un état à un autre (parmi un nombre fini ou infini) à intervalles de temps réguliers. L'évolution du processus ne dépend que de l'état dans lequel il se trouve présentement.
Notes :
Tout le passé de l'évolution du processus se trouve résumé dans son état au dernier instant où on le connaît. Le modèle est utilisé entre autres dans l'étude des phénomènes d'apprentissage et en linguistique (Heuchenne, Defays).
Du mathématicien russe Andrei Markov, 1856- 1922. Un processus, une chaîne sont dits markoviens si chaque état contient suffisamment d'informations pour qu'il soit inutile de connaître les états précédents pour caractérise complètement ce processus. Il est important de noter que ce ne sont pas les phénomènes qui sont ou non markoviens mais leur représentation. Mais dans certains cas, on ne peut obtenir le caractère markovien qu'au prix d'une grande complexité. Les différents automates, suivant qu'ils sont ou non markoviens reconnaissent des types de langage différents. Exemple : Lors d'une rencontre de football de coupe d'Europe par matchs aller et retour, un spectateur du match retour qui ignore le résultat du match aller n'a pas une vision markovienne du match. En effet, l'issue finale dépend pour partie d'éléments qui lui échappent.
Termes privilégiés :
- chaîne de Markow n. f.
- processus de Markov n. m.
- chaîne markovienne n. f.
- processus markovien n. m.
-
Le mot chaîne peut aussi s'écrire chaine en vertu des rectifications de l'orthographe (chaine de Markow, chaine markovienne).
Traductions
-
anglais
Auteur : Office québécois de la langue française,Terme :
- Markov chain