Markov chain

「 Markov chain」の意味 意味

  • マルコフ連鎖

「 Markov chain」の例文 例文

A Markov chain is a stochastic process with memoryless transitions.

マルコフ連鎖は遷移に記憶がない確率過程である。

「 Markov chain」のコアイメージ コアイメージ

マルコフ連鎖は遷移確率を行列で表して状態が反復的に移るしくみを示す確率過程を指す

「 Markov chain」の英英 英英

A sequence of random variables with the Markov property, often represented by a transition matrix that gives the probabilities of moving between states.

「 Markov chain」の語源 語源

Markov chainは、アンドレイ・マルコフの業績にちなみ確率遷移を列として扱う概念として数学に定着した。

「 Markov chain」のコラム コラム

  • 確率や統計の分野では遷移行列や定常分布の計算法として扱われ、機械学習や統計解析で確率モデルとして広く用いられる

おすすめの単語帳

1 / 1
QRコード