1948 年,香农提出了“信息熵”(shāng) 的概念,解决了对信息的量化度量问题。 一条信息的信息量大小和它的不确定性有直接的关系。比如说,我们要搞清楚一件非常非常不确定的事,或是我们一无所知的事情,就需要了解大量的信息。相反,如果我们对某件事已经有了较多的了解,我们不需要太多的信息就能把它搞清楚。所以,从这个角度,我们可以认为,信息量的度量就等于不确定性的多少。
·2,447,543篇论文数据,部分数据来源于NoteExpress
本文从玻耳兹曼熵和香农熵的概念,推演出熵与信息的互补原理。
This paper presents the principle of complementarity of entropy and information derived from the concepts of L. Boltz mann's entropy and c.
实验结果证明该方法效果良好,优于单独运用香农熵或阈值熵进行辨识的结果。
Experiments show that the proposed method is successful, and is more effective than identification method only using Shannon or threshold entropy.
提出了一种用加权熵代替香农熵的互信息计算方法,并将其应用于图像配准实验。
Weighted entropy instead of Shannon entropy to compute the mutual information is proposed in this paper, and it has been used in medical image registration experiment.
应用推荐