在概率论和信息论中,两个随机变量的互信息 (MI) 是两个变量之间相互依赖性的度量。更具体地说,它量化了通过观察一个随机变量而获得的关于另一个随机变量的“信息量”(以香农 (比特)、奈特或哈特利等单位表示)。互信息的概念与随机变量的熵密切相关,熵是信息论中的一个基本概念,它量化了随机变量中预期的“信息量”。

✍️提及

Python非线性光学映射数据压缩算法

https://embed.notionlytics.com/wt/ZXlKM2IzSnJjM0JoWTJWVWNtRmphMlZ5U1dRaU9pSlhiRWhvWlV4VVQxbHNjMlZYV2tKbU9URndaU0lzSW5CaFoyVkpaQ0k2SWpZeE1qSmxaR0k0WW1FeE9EUmhORGc0TldNeU1URTJaR1poTTJVeE9EVTFJbjA9