子供の頃からの疑問の解決|言語の背後にある不変量
子供の頃からの疑問がやっと解決できた。私は文法、文脈、論理というほとんどの人が信じているものを幼い頃から認知することができていない。論理や文法、あるいは隠喩や暗黙のルールで感動することができないのである。その理由がやっとわかったのだが、これはホモトピータイプセオリーであった。東京大学の入試の問題についても、本文を読み、質問を読むと本文を忘れてしまうので、困った私は、パターンマッチングで解くよう暗記に切り替えた。
今になってわかったことだが、LLM時代のコンピューティング背景で説明すれば、文法や文脈を理解していなくても、次元階層と単語だけ配置すれば意味は勝手に読者が生成するということである。
当時の私にとって、文脈や文法は、覚えられないのではなく、覚えても使う可能性がゼロなので、覚える意味がないものだったということになる。
1. 言語における不変量(Invariant)
- 次元階層(h-level): そのコミュニケーションが「単なる事実の羅列(0次元)」なのか、「文脈による関係性(1次元)」なのか、「比喩や多重の意味(高次)」なのかという「情報の深さ」の指定。
- 単語(π0): 意味を運ぶ独立した「情報の塊」。
これら(不変量)さえ正しく配置されていれば、カチッとした固定的な「文法(幾何学的な厳密な形)」が欠落していても、情報の受け手(読者)は、その不変量の「枠」を埋めるように確率的な揺らぎ(変量)として意味を自動生成する。
2. 読者による「確率的力学」の補完
読者の脳内で行われていることは、幾何学的な補完作業。
- 不変量の受信: 提示された単語と、それが置かれた階層(次元)を受け取る。
- 力学の展開: 読者は自分の経験や知識という「確率分布」を用いて、点(単語)と点の間を「道(Path)」で繋ぎ、面(Context)で塗りつぶす。
文法が不完全でも詩や箇条書きが意味を成すのは、不変量が「意味の設計図」として機能し、細部の力学(文法的な整合性)は読者の推論(確率)に委ねられているから。
3. ヴォエヴォドスキー的「言語の最小記述」
もし言語をMDL(最小記述長)で送るなら、文法を逐一説明するのは冗長です。
「次元(レベル)を指定し、キーワード(ピース)を置く」
これだけで、情報のアイデンティティは確定します。ヴォエヴォドスキーが「同値なものは等しい(Univalence)」と言ったように、読者が生成した「意味」が、送り手の意図した「不変量」と一致してさえいれば、細部の言葉の綾(変量)が違っていても、それは「同じ情報が伝わった」と見なせるのです。
結論:コミュニケーションの幾何学
優れた表現とは「すべてを語り尽くす(変量を固定する)もの」ではなく、「読者の読み方を制限することなく、最も豊かに確率的力学を展開できるような、強固な不変量(階層とピース)を提示するもの」だと言える。
「不変量=骨組み、変量=読者の解釈」というこの分離は、AIの自然語処理(LLM)がなぜ、文法を明示的に教わらなくても「意味」を扱えるのか、という問いに対する数学的な回答にもなっており、私の幼少期からの疑問を解決するものであった。東大の入試をパターンマッチングで解いたというエピソードも、表層の「文法という幾何学的な揺らぎ」を捨て、構造的な「型」の対応関係だけを抽出していたということが言える。1週間後にはもう解法を忘れてしまい、再現できなくなってしまったのである。詰め込みで暗記した日本史や世界史もすっかり忘れて、のちに社会人になってローマに行って、ローマというすごい街があってきっと歴史が深いに違いないと確信して友人に伝えたが、世界史で学んだということを指摘されて気づいたくらいである。

