methods_over_the_mythic

時間がないひと

こんにちは、ねんてんです。

時間には、大きく二つの性質があります。

「時間は存在しない」という言葉は、注目を集めるため多様な専門家が使っていますが、その意味も多様です。時間が存在しなくなった我々は、どのような我々なのでしょうか。

世界をグリッド化してみてください。世界は離散しています。長さも時間も最小の単位が存在し、最小のセルが持つ要素は0と1に還元されました。無数のセルが敷かれグリッドが構成されます。空間だけでなく、時間も並列してグリッド化しました。細かくしていくと疲れるので粗いグリッドで構いません。離散した時間が横並びになるように、世界を見てみましょう。それぞれの時間でラベリングされた空間たちの間に関係性が存在します。それはエントロピー増大則と呼ばれる関係性です。口から吐いた煙は霧散して、煙だけを吸い直すことは難しいということです。この関係性が時間の流れを私たちに見せています。記憶の積み重ねを生み出し時間を見せています。脳の中に複雑さが蓄積されていきます。たぶん。まだよくわからないので日常的な例からエントロピーを考えてみましょう。

あなたは大学を出て就職したフレッシュマンです。安定していて楽しく働ける会社を選びました。期待と活力に満ちていることでしょう。だいたいの人間は入社即退社をキメることはないようです。入社してしばらくはほぼ確実にまだ働いていると期待して入社することでしょう。1ヶ月後はどうでしょうか。社会人生活になれたり、給料に喜ぶでしょうか。1年後はどうでしょうか。まだ新人と可愛がられているでしょうか。労働の嫌なところを見つめているでしょうか。10年後、20年後、30年後はどうでしょうか。同じ会社で働き続けているのでしょうか。これだと決めている未来がある人は未来を知っているでしょうが、どうなっているかわからない人もいるでしょう。先のことはわからないと人間は言っています。未来が曖昧になればなるほど、その未来の情報の価値はとても高いものになるでしょう。入社して1日後の未来に、自分が退社しているのかどうかという情報は、ほとんどわかりきっているため、あまり価値はありませんが、3年後にも、10年後にも、その会社にいるのか退社しているのか。あるいは、20年後30年後に会社が倒産しているのかどうかという情報は、わりと価値があることでしょう。

情報量の表現方法は様々な候補があるかもしれません。たとえば、起こりにくいことほど情報量が大きいという直感を利用して、事象$x$の情報量を$x$が起こる確率$p(x)$の逆数$ \begin{xy} *[]{\scriptsize 1/p(x)}*\frm<1pt>{*} \end{xy}$で表せるかもしれません。とはいえ実際に広く使われている情報量は、次の定義です。$x$の情報量は$\begin{xy} *[]{\scriptsize -\log (p(x))}*\frm<1pt>{*}\end{xy}$という形で表されます。確率$p(x)$が$\scriptsize 0\%$から$\scriptsize 100\%$の値しかとらない、つまり、$\scriptsize 0$から$\scriptsize 1$の値しかとらないことに注意してグラフをイメージしてみると、2つの情報量の定義は似ているようにみえます。しかし、期待値を考えると違いが現れてきます。

価値とは注目することであり、期待することです。注目すること、期待することが、価値を生み出します。それゆえに、価値は期待値で表されます。確率変数Xの期待値とは Xのとりうる値 ⨯ その値ごとの確率 を足し合わせたもの で定義されます。たとえば6面サイコロの出目の期待値は、$\scriptsize\sum_{x=1\sim 6} x\times1/6 = 21/6 = 3.5$になるということです。おなじように情報量の期待値は$\scriptsize\sum_{x} -\log (p(x))\times p(x)$で表されます。つまり、$\begin{xy} *[]{\scriptsize \sum_{x} -p(x)\log (p(x))}*\frm<1pt>{*}\end{xy}$ということです。もし情報量を単に$1/p(x)$と考えて期待値を求めると $\scriptsize\sum_{x} 1/p(x) \times p(x) = \sum_{x} 1$ となってしまい、変数$X$がどのような状態であるかの確率$p(X)$に関係なく、単にとりうる状態の個数だけに依存して値が決まってしまうでしょう。遠い未来のことほどわからなくなるので、遠い未来のことほど情報の価値が上がるという直感を映し出すには、確率が均一に、曖昧になっていくほど情報の価値が上がるという、確率$p(x)$に依存した形で、情報量の期待値が定義される必要があるでしょう。そういった観点から見たとき、情報量の期待値が$\scriptsize\sum_{x} - p(x)\log (p(x))$という形で与えられるのはふさわしいことだと思えるかもしれません。情報量の期待値、つまり(確率で重みをつけた)平均の情報量を専門家はエントロピーと呼びます。対象の確率分布が曖昧になっていてとらえどころがないほど、エントロピーは大きくなります。未来のことほど物事は不確かで曖昧で、エントロピーは大きいかもしれません。

このような素朴なイメージで妄想していると、一つ疑問が出てきます。私にとっての不確かな物事は、未来だけではなく、過去も同じなのではないかと。であるならば、対象の確率分布は過去に遡れば遡るほど不確かになって、エントロピーは増えていく、つまり過去から今に向かう時間の上ではエントロピーは減少しているのではないか、という疑問です。過去をしっかりと観測、記録している観測者にとっては、過去の出来事は確定した情報にすぎず、曖昧さはありません。そのような存在にとっては過去の対象にエントロピーを考える意味はほとんどないでしょう。しかし、過去を知っているわけではない存在にとっては、過去を知ることは、未来の体験として過去を知るということになります。主観的には、確定していることの全てが今であり、確定していないことの全てが未来かもしれません。知っていることが今の全てであり、最も曖昧で、最もよくわからず、最も期待の高まる物事は、最も遠い未来に存在する対象かもしれません。時間が存在しなくなり、全てが今になる時、人は全てを知るのかもしれません。

時間を解放するのは、あなたです。