Nouveaux mots
Il n'y a qu'un terme pour
'Markov's chains' en Anglais (GB):
'Markov's chains' en Anglais (GB):
chaînes de Markov
Définition(s)
Modèle servant à analyser des situations dans lesquelles un état à venir dépend de l'état actuel et d'une série de probabilités de passage.
V. Chaîne, aléatoire.
Traductions
Anglais (GB)
Allemand
Espagnol
Italien
Pas de traduction à ce jour
Nouveaux mots
