クロード・シャノンの情報理論、なんだか難しそうに聞こえるけど、実はとっても面白い考え方なんだ。キミたちの使っているスマートフォンやインターネットの「土台」になっている、すごい理論なんだよ。さっそく、身近な例で見ていこう!
「情報」ってなんだろう? 🤔
まず、情報理論でいう「情報」とは、単なる知識やデータのことじゃないんだ。**「あいまいさを、どれだけ減らせるか」**という度合いのことを指すんだ。
例えば、友達と「明日の天気、晴れるかな?雨かな?」と話しているとしよう。この時点では、天気は「あいまい」だよね。
そこに天気予報で「明日は晴れです!」というニュースが入ってきた。すると、「晴れか雨か分からない」というあいまいさが消えて、「晴れ」に確定するよね。この**「あいまいさをなくす力」こそが、情報理論でいう「情報」**なんだ。
情報の量を測る単位「ビット」
情報の量を測る単位を**ビット(bit)**というんだ。これは、コンピュータが情報を扱う最小単位でもあるよ。
一番分かりやすい例がコインの裏表だ。
「コインを投げたら、表と裏どっちが出る?」という質問の答えは、「表」か「裏」の2択だよね。この2つの選択肢から1つに決めるために必要な情報量、これが「1ビット」なんだ。コンピュータの中では、これを「0」か「1」のスイッチで表現しているんだよ。
じゃあ、選択肢が4つだったらどうだろう?例えば、「春夏秋冬、どの季節が好き?」という質問。これを「はい/いいえ」で当てるには、
- 「暖かい季節(春夏)ですか?」→「はい」
- 「夏ですか?」→「はい」
というように、2回の質問が必要になる。だから、4択の答えの情報量は2ビットになるんだ。選択肢が増えれば増えるほど、ビットの数は大きくなる。
面白いのは、**「珍しいことほど情報量が大きい」**ということ。
- 「今日の朝、太陽が東からのぼった」→ 当たり前すぎて、あいまいさはほとんど減らない。だから情報量はほぼゼロ。
- 「来週、学校に宇宙人がやってくる!」→ ものすごく珍しいことだよね!これはたくさんのあいまいさをなくすから、情報量はすごく大きい。
シャノンのすごい発見ベスト2!
シャノンは、この「情報」について、2つの大きな発見をしたんだ。
- データはギュッと圧縮できる!
文章を例に考えてみよう。日本語では「あ」や「い」はよく使うけど、「ゑ」や「ゐ」はめったに使わないよね。
シャノンは、**「よく出てくる文字は短い記号で、あまり出てこない文字は長い記号で表せば、全体の長さを短くできるんじゃないか?」**と考えたんだ。
これが、写真や動画をメールで送るときに使われるデータ圧縮(ZIPファイルみたいなもの)の基本的な考え方なんだ。このおかげで、私たちは大きなデータもスムーズにやり取りできるんだよ。
- エラーがあっても正確に情報を送れる限界がある!
インターネットやスマホで動画を見ているとき、画像が乱れたり音声が途切れたりすることがあるよね。これを**エラー(ノイズ)**というんだ。
シャノンは、**「どんな通信環境(トンネルの広さみたいなもの)にも、エラーを完璧に修正しながら送れる情報の量には限界がある」ということを見つけ出した。この限界のことを「通信路容量(つうしんろようりょう)」**と呼ぶよ。
そして、**「その限界を超えない範囲で、データをうまく加工(符号化)して送れば、途中で多少のエラーが起きても、受け取る側で完全に元通りに復元できる」**ということを証明したんだ。
これはすごい発見で、この理論のおかげで、私たちはノイズの多い無線通信でも、正確なデータを受け取ることができるんだ。君が友達とLINEでメッセージを送り合ったり、オンラインゲームで対戦したりできるのも、この技術のおかげなんだよ。
まとめ
クロード・シャノンの情報理論は、目には見えない「情報」というものの正体を数学的に解き明かし、どうすれば効率よく、そして正確に伝えられるかを明らかにした理論なんだ。
- 情報の正体は「あいまいさを減らす力」
- 珍しいことほど情報量は大きい
- データは賢く圧縮できる
- エラーがあっても正確に送る方法がある
この理論がなければ、今の私たちのデジタル社会は成り立たないと言ってもいいくらい、重要なものなんだ。次にスマホを触るとき、その裏にはシャノンのすごいアイデアが隠れていることを、ちょっと思い出してみてね!