信息
信息泛指人类社会传播的一切内容:指音讯、消息、通讯系统传输和处理的对象, 在一切通讯和控制系统中,信息是一种普遍联系的形式 数学家香农指出「信息是用来消除随机不定性的东西」 同义词 中国大陆:信息 英文、法文、德文、西班牙文:information 日文:情报 中国台湾:咨询 中国古代:消息 香农定义 信息量计算公式: $$ H=-\sum_{k=1}^{n}p_klog_2p_k $$ 符号意义 $H$ 表示信息熵,是信息论中用来量化信息含量的度量单位,通常以比特(bit)来表示。 $p_k$ 表示随机变量中第 $k$ 个事件发生的概率。 $n$ 是所有可能事件的总数。 $\log_2$ 是以2为底的对数,用于将概率转换为比特数。 公式意义 和热力学的熵公式一样,又称「信息熵」 信息熵可以视为「不确定性」或「选择的自由度」的度量 「不确定性」最高时,信息熵最大 互信息 wikipedia🔗: https://zh.wikipedia.org/zh-cn/%E4%BA%92%E4%BF%A1%E6%81%AF mutual Information,MI 在概率论和信息论中,两个随机变量的互信息度量了两个变量之间相互依赖的程度 MI是一个随机变量由于已知另一个随机变量而减少的“信息量”(单位通常为比特) KL 散度 交叉熵 随机变量 $(X,Y)$ 是一对随机变量,KL 散度定义的互信息: $I(X;Y)=D_{KL}(p(x,y)||p(x)\otimes p(y))$ $p(x,y)$ 联合分布,$p(x)$ 和 $p(y)$ 边缘分布 当 X 和 Y 相互独立时,观测到 Y 对于「预测 X」没有任何帮助,互信息为 0