Une chaîne de Markov est-elle la même qu’une machine à états finis?

Une machine à états finis n’est-elle qu’une implémentation d’une chaîne de Markov? Quelles sont les différences entre les deux?

Les chaînes de Markov peuvent être représentées par des machines à états finis. L’idée est qu’une chaîne de Markov décrit un processus dans lequel la transition vers un état à l’instant t + 1 ne dépend que de l’état à l’instant t. La principale chose à retenir est que les transitions dans une chaîne de Markov sont probabilistes plutôt que déterministes, ce qui signifie que vous ne pouvez pas toujours dire avec une certitude parfaite ce qui se passera à l’instant t + 1.

Les articles de Wikipedia sur les machines à états finis comportent une sous-section sur les processus à chaîne de Markov fini . Je vous recommande de les lire pour plus d’informations. En outre, l’article de Wikipedia sur les chaînes de Markov contient une brève phrase décrivant l’utilisation de machines à états finis dans la représentation d’une chaîne de Markov. Cela dit:

Une machine à états finis peut être utilisée comme représentation d’une chaîne de Markov. En supposant une séquence de signaux d’entrée indépendants et dissortingbués de manière identique (par exemple, les symboles d’un alphabet binary choisi par les pièces), si la machine est dans l’état y à l’instant n, la probabilité qu’elle passe à l’état x à l’instant n + 1 ne dépend que de l’état actuel.

Alors qu’une chaîne de Markov est une machine à états finis, elle se distingue par ses transitions stochastiques, c’est-à-dire aléatoires, et décrites par des probabilités.

Les deux sont similaires, mais les autres explications ici sont légèrement fausses. Seules les chaînes FINITE Markov peuvent être représentées par un FSM. Les chaînes de Markov permettent un espace infini. Comme il a été souligné, les transitions d’une chaîne de Markov sont décrites par des probabilités, mais il est également important de mentionner que les probabilités de transition ne peuvent dépendre que de l’état actuel. Sans cette ressortingction, cela s’appellerait un “processus stochastique à temps discret”.

Veuillez lire ces documents:

Liens entre automates probabilistes et modèles de Markov cachés (par Pierre Dupont) http://www.info.ucl.ac.be/~pdupont/pdupont/pdf/HMM_PA_pres_n4.pdf

[Le manuel de la théorie du cerveau et des réseaux de neurones] Modèles de Markov cachés et autres automates à états finis pour le traitement des séquences http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.85.3344&rep=rep1&type=pdf

Je crois que cela devrait répondre à votre question:

https://en.wikipedia.org/wiki/Probabilistic_automaton

Et, vous êtes sur la bonne idée – ils sont presque les mêmes, les sous-ensembles, les sur-ensembles et les modifications selon l’adjectif qui décrit la chaîne ou l’automate. Les automates ont également leur mot à dire, mais je suis sûr qu’il y a eu des articles utilisant des «chaînes de Markov» avec des entrées.

Pensez à la dissortingbution gaussienne par rapport à la dissortingbution normale – les mêmes idées dans différents domaines. Les automates appartiennent à l’informatique, Markov appartient à la probabilité et à la statistique.

Si on laisse les détails de travail internes de côté, la machine à états finis est comme une valeur simple, alors que la chaîne de markov est comme une variable aléatoire (append une probabilité au-dessus de la valeur simple). Donc, la réponse à la question initiale est non, ils ne sont pas les mêmes. Au sens probabiliste, la chaîne de Markov est une extension de la machine à états finis.