go top

Markov chain

  • n. [数] 马尔可夫链

英英释义

Markov chain

  • n. a Markov process for which the parameter is discrete time values

    同义词: Markoff chain

以上来源于: WordNet

双语例句

  • Research prediction of based on Latent Markov model, only from to research conversation itself set out to predict user's next chaining user, can not catch users' real interest.

    基于马尔科夫模型浏览路径预测仅仅用户的浏览会话本身出发预测用户下一步链接,并不能捕获用户真正兴趣所在

    youdao

更多双语例句
$firstVoiceSent
- 来自原声例句
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定