...,互信息是一种测度,用来度量一个随机变量包含另一个随机变量的信息量。熵恰好变成一个随机变量的自信息。相对熵(relative entropy)是个更广泛的量,它是刻画两个概率分布之间距离的一种度量,而互信息又是它的特殊情形。
基于298个网页-相关网页
Kullback-Leibler Divergence
在以前的隐私保护下的OLAP研究中,往往难以描述输出数据有效性,本文采用了相对熵(Kullback-Leibler divergence)作为数据有效性的指标,恰当地描述了隐私保护下OLAP输出数据的有效性,并对优化结果进行了隐私保护和有效性两方面的评价。
基于36个网页-相关网页
...息量; 互信息(Mutual Information): 计算每个词t与类别c之间的互信息,存在问题,倾向于选择稀疏词; 相对熵(KL Divergence): 卡方(Chi-square): 卡方统计量常常用于检测两个事件的独立性,在特证词选择中,两个事件分别指词项的出现共同的 3.2.
基于6个网页-相关网页
短语
最小相对熵
minimum relative entropy
相对熵纠缠度
relative entropy of entanglement
优势度相对熵方法
DREM
相对熵函数
relative entropy function
加权模糊相对熵
weighted fuzzy relative entropy
K-L相对熵
K-L relative entropy
连接相对熵
Joint relative entropy
相对熵等值法
relative entropy equating method
-
relative entropy
- 引用次数:19
The weights in algebra view and knowledge granularity view are carried on the organic integration by the relative entropy optimization model based on dominance relations, in order to obtain optimal solution of the attributes in Multiple Attribute Decision Making(MADM).
基于优势关系的序信息系统,将代数观下和粒度观下的权重通过相对熵优化模型进行耦合,得到多属性决策中属性权重的优化解。
参考来源 - 基于粗集优势关系的属性赋权相对熵优化模型
i-divergence entropy
- 引用次数:1
参考来源 - 基于最大判别熵的有监督独立分量分析方法 in C
-
relative entropy
- 引用次数:5
参考来源 - 我国商业银行全面风险评估研究
·2,447,543篇论文数据,部分数据来源于NoteExpress