情報量
情報理論では確率Pを用いて情報量というのもを次のように定義する
底数はなにをとっても構わないが,だいたい基数である2を取る。(ここらへんはデータ量に関係が)
ちなみに上記をエントロピーと名付けたのはシャノン氏だが,アドバイスを送ったのはあの天才ノイマン氏。
現代社会にノイマンほど大きく影響を及ぼす人もいないだろうと思う。
さてさて情報量の特徴としてはまず根本にあるのが
なかなか起こらない事が起きた場合の情報は質が高いとする。
つまりよく起きることは情報としてそれほど価値がないよということ。
で上式からわかるように なかなか起きない=確率の値が小さい ということにより情報量が大きくなるのがわかる。
情報量の性質をもうすこり掘り下げてみる。
加法性
情報量は足し算ができますという事。
具体的にはトランプから一枚カードを引いたとき,それがハートである確率は1/4。
取り出したカードが10である確率は1/13。
上記の情報量は
ハートである情報量
10である情報量
和の情報量はハートの10である情報量となる。
対数関数だと上記のようなが成り立ち足し算で考えることができるのはうれしい事。