LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開
現代のLarge Language Modelは、6つの機能役割を必ず実装する。1つでも、その機能等価物まで含めて欠ければ、それはもうLLMではない。これを定義公理と有限全列挙で証明し、コマンド一発で再現可能にしたパッケージを公開した。
- GitHub:gatchimuchio/LLM-Layer-0-Functional-Compliance-Specification
- Zenodo (v3.0):10.5281/zenodo.19826582
- ライセンス:コードはMIT、ドキュメントはCC-BY-4.0
なぜ公開したか
LLMという言葉は、マーケティングと技術用語の境界が曖昧なまま流通している。「これはLLMか」「これはLLMじゃない」を、雰囲気・プロバイダの自己申告・パラメータ数の暗黙閾値で議論し続けると、規制も監査もアーキテクチャ議論も全部ぼやける。
必要なのは、Transformer・MoE・SSMといった実装世代交代に耐える形式的な定義境界だ。役割の有限集合で固定し、削った場合にどう失敗するかまで含めて宣言する。それがLayer-0定理である。
1分でわかるLayer-0
主張はこうだ。
現代のLarge Language Modelに該当するシステムは、以下6つの機能役割を、明示的にあるいは機能等価物として実装しなければならない。1つでも、その全機能等価物まで含めて欠くシステムは、AIシステム・テキストツール・分類器・検索器・エンコーダ・歴史的言語モデルではあり得るが、現代の技術的意味におけるLLMではない。
6つの役割は次の通り。
- TOKEN_OR_SYMBOL_SPACE — モデルが読み書きするトークン/記号空間
- CONTEXT_CONDITIONING_STATE — 予測を条件づける文脈状態
- LEARNED_PARAMETERIZED_TRANSFORM — 学習されるパラメータ化モデル本体
- CONDITIONAL_LINGUISTIC_OUTPUT_SURFACE — 条件付き出力面
- SEQUENCE_MODELING_OBJECTIVE_OR_EQUIVALENT_FITTING_CRITERION — 系列学習目的関数または等価な適合基準
- DECODING_OR_EMISSION_INTERFACE — 出力放出インタフェース
証明手法は有限全列挙だ。6役割の部分集合は 2^6 = 64 通り。フル集合は通る。残り63の真部分集合はいずれも通らない。これを実行可能スクリプトで検証し、判定はJSON証明書として出力する。
make audit
make verify
期待される出力はこう。
main audit: PASS
Layer A obligation graph: PROVEN_BY_EXHAUSTIVE_ENUMERATION_OF_DECLARED_OBLIGATION_GRAPH
proper_subset_pass_count: 0
single_removal_fail_count: 6
proper_subset_pass_count: 0 は「真部分集合のうち1つもLLM要件を満たさない」、single_removal_fail_count: 6 は「6役割のいずれを単独で抜いても要件は破綻する」の意味だ。雰囲気判定ではなく、機械可読な合否が出る。
なぜ6つか — 責任境界の最小集合
なぜ6で、5でも7でもないのか。これは「英語ラベルの最善の選び方」の問題ではない。「責任境界をいくつ立てれば、LLMという運用システムを過不足なく宣言できるか」の問題である。
5に圧縮すると、責任境界が1つ隠れる。たとえば「学習対象」と「学習目的関数」を一塊にすると、どちらが欠陥の原因かを切り分けられなくなる。監査の単位が壊れる。7以上に分割すると、Layer-0ルートを越えて実装精緻化(Attention、MoE、RoPE、RMSNormなど)に踏み込んでしまい、アーキテクチャ非依存性が失われる。
6つそれぞれが独立に観測可能で、削除すると他の5つで埋め合わせができないこと。これが6である理由だ。境界の名前ベースで言えば、表現境界・推論状態境界・学習モデル対象境界・条件付き出力代替境界・訓練/適合境界・運用放出境界、の6つになる。
アーキテクチャ非依存性 — Transformerは必須ではない
Layer-0は実装に踏み込まない。
- Transformer attention、MoE、Dense、RoPE、RMSNorm、SwiGLU、MLA、GQA は、すべてLayer-0の 下層 にある実装枝である
- Mamba/SSM、RWKV/再帰型もLayer-0の下層に位置する
- 「次のアーキテクチャ」が出てきても、それがLLMである限り6役割は実装される
つまり、Transformerが廃れた時もLayer-0は生き残る。これがアーキ世代交代に耐える定義の意味だ。「Transformerに基づくAI」「MoEに基づくAI」のように実装で定義してしまうと、定義側が世代交代で死ぬ。Layer-0はそうならない。
これは何の役に立つのか
4つの用途がある。
1. 監査
責任境界が6つに固定されているということは、準拠チェックを再現可能に回せるということだ。make audit は決定論的にPASS/FAILを返し、JSON証明書を生成する。雰囲気判定でない監査が成立する。
2. 規制・標準化
「これはLLMか?」という規制上の問いに、引用根拠付きの形式境界を提供する。OpenAI・Anthropic・xAI・Meta・Mistral・DeepSeek・GLM・Qwenの公式言明を収束的根拠として錨付けてあるので、私見ではない。各プロバイダの自己記述が定理ドメインを支える証拠になる。
3. アーキテクチャ議論
「LLMとは何か」と「どう実装するか」を分離する共通語彙になる。「うちのモデルはMoEだから先進的」のような議論は、Layer-0の下層の話でしかない。Layer-0より上で議論しないと、上位概念がブレる。
4. 反例プロトコル
批判の作法を明示している。本定理を覆したいなら、より良い境界保存性をもつより厳しい最小分解か、妥当なLLM反例を提出する必要がある。「定義依存だ」は反証ではない。数学定理は構成上、定義と公理に依存する。
反例の作法
妥当な反例は、以下を両方満たす必要がある。
- 候補が通常の技術的用法において現代のLarge Language Modelであることを確立する
- 少なくとも1つのLayer-0役割と、その全機能等価物を欠いていることを確立する
大規模学習された文脈言語モデリングを欠くシステムは、LLM反例ではない。それは別のAI/テキストシステムだ。「広い意味での言語モデル」は別クラスとして扱うのがLayer-0の境界の引き方である。
「BERTは?」「単純なnグラム言語モデルは?」のような問いには、Layer Bの公開証拠マッピングで答える設計になっている。BERTはエンコーダ系であり Layer-0 の CONDITIONAL_LINGUISTIC_OUTPUT_SURFACE と DECODING_OR_EMISSION_INTERFACE の責任分担が現代LLMと違う。これは反例ではなく、別クラスへの帰属である。
よくある異議への回答
- 「これは定義依存だ」 — 反証ではない。数学定理は定義依存で構成される。批判するなら別の定義を提出するか、定義から導出される結論に矛盾を示す必要がある。
- 「全モデルの経験的検査ではない」 — 反証ではない。定理は形式的、経験的証拠マッピングはLayer Bの役割。混同してはならない。
- 「将来のアーキは違うかもしれない」 — 反証ではない。LLMなら6役割を実装する。実装しないなら別のAIクラスか、用語改訂を強制する。
- 「Largeに固定パラメータ閾値はない」 — 反証ではない。Largeは現代的技術スケール条件であり、定理の作動機構ではない。スケール論を持ち出すと論点がずれる。
何を主張していないか
過剰主張をしない、というのも定理の境界の一部だ。
- 意識・理解・意味・エージェンシー・人間等価の推論は主張していない
- クローズド重みの内部の経験的検査は主張していない
- 6つの英語ラベルが唯一可能な語彙だとは主張していない
- Transformer・attention・MoE・RoPE・RMSNorm・SwiGLU・MLA・GQAが普遍的LLMルートだとは主張していない
ここに踏み込むと、Layer-0は形式定理であることを止めて思想表明になる。それは別の論点でやる。
階層の整理
主張は4階層に分けてある。
- Layer 0:6つのLLM役割の数学的機能必然性。用語境界公理と役割分離議論で確立。
- Layer A:有限義務グラフ定理。64部分集合の全列挙で実行可能証明書を出力。
- Layer B:既知の公開LLMファミリの Layer 0 への対応。公式参照と公開モデルファミリ証拠で確立。
- Layer 1+:Transformer / Dense / MoE / SSM / RWKV の枝配置。Layer 0 下層の実装枝。
この階層分離が、定理と経験的検査と実装議論を混ぜて扱わないための骨格になる。
まとめ
LLMが何であるかを、雰囲気・マーケティング・自己申告に任せず、責任境界の有限集合と全列挙で固定した。make audit 一発で再現でき、JSON証明書まで出る。Transformerが廃れても、MoEが廃れても、SSMが廃れても、6役割は残る。
監査・規制・アーキテクチャ議論で「これはLLMか」を言う時、Layer-0をリファレンスとして使ってほしい。リファレンスとして批判するのも歓迎する。反例プロトコルがそのために用意してある。
- GitHub:https://github.com/gatchimuchio/LLM-Layer-0-Functional-Compliance-Specification
- Zenodo (v3.0):https://doi.org/10.5281/zenodo.19826582
引用は CITATION.cff または上記Zenodo DOI経由でどうぞ。