0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開

0
Posted at

LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開

現代のLarge Language Modelは、6つの機能役割を必ず実装する。1つでも、その機能等価物まで含めて欠ければ、それはもうLLMではない。これを定義公理と有限全列挙で証明し、コマンド一発で再現可能にしたパッケージを公開した。

なぜ公開したか

LLMという言葉は、マーケティングと技術用語の境界が曖昧なまま流通している。「これはLLMか」「これはLLMじゃない」を、雰囲気・プロバイダの自己申告・パラメータ数の暗黙閾値で議論し続けると、規制も監査もアーキテクチャ議論も全部ぼやける。

必要なのは、Transformer・MoE・SSMといった実装世代交代に耐える形式的な定義境界だ。役割の有限集合で固定し、削った場合にどう失敗するかまで含めて宣言する。それがLayer-0定理である。

1分でわかるLayer-0

主張はこうだ。

現代のLarge Language Modelに該当するシステムは、以下6つの機能役割を、明示的にあるいは機能等価物として実装しなければならない。1つでも、その全機能等価物まで含めて欠くシステムは、AIシステム・テキストツール・分類器・検索器・エンコーダ・歴史的言語モデルではあり得るが、現代の技術的意味におけるLLMではない。

6つの役割は次の通り。

  1. TOKEN_OR_SYMBOL_SPACE — モデルが読み書きするトークン/記号空間
  2. CONTEXT_CONDITIONING_STATE — 予測を条件づける文脈状態
  3. LEARNED_PARAMETERIZED_TRANSFORM — 学習されるパラメータ化モデル本体
  4. CONDITIONAL_LINGUISTIC_OUTPUT_SURFACE — 条件付き出力面
  5. SEQUENCE_MODELING_OBJECTIVE_OR_EQUIVALENT_FITTING_CRITERION — 系列学習目的関数または等価な適合基準
  6. DECODING_OR_EMISSION_INTERFACE — 出力放出インタフェース

証明手法は有限全列挙だ。6役割の部分集合は 2^6 = 64 通り。フル集合は通る。残り63の真部分集合はいずれも通らない。これを実行可能スクリプトで検証し、判定はJSON証明書として出力する。

make audit
make verify

期待される出力はこう。

main audit: PASS
Layer A obligation graph: PROVEN_BY_EXHAUSTIVE_ENUMERATION_OF_DECLARED_OBLIGATION_GRAPH
proper_subset_pass_count: 0
single_removal_fail_count: 6

proper_subset_pass_count: 0 は「真部分集合のうち1つもLLM要件を満たさない」、single_removal_fail_count: 6 は「6役割のいずれを単独で抜いても要件は破綻する」の意味だ。雰囲気判定ではなく、機械可読な合否が出る。

なぜ6つか — 責任境界の最小集合

なぜ6で、5でも7でもないのか。これは「英語ラベルの最善の選び方」の問題ではない。「責任境界をいくつ立てれば、LLMという運用システムを過不足なく宣言できるか」の問題である。

5に圧縮すると、責任境界が1つ隠れる。たとえば「学習対象」と「学習目的関数」を一塊にすると、どちらが欠陥の原因かを切り分けられなくなる。監査の単位が壊れる。7以上に分割すると、Layer-0ルートを越えて実装精緻化(Attention、MoE、RoPE、RMSNormなど)に踏み込んでしまい、アーキテクチャ非依存性が失われる。

6つそれぞれが独立に観測可能で、削除すると他の5つで埋め合わせができないこと。これが6である理由だ。境界の名前ベースで言えば、表現境界・推論状態境界・学習モデル対象境界・条件付き出力代替境界・訓練/適合境界・運用放出境界、の6つになる。

アーキテクチャ非依存性 — Transformerは必須ではない

Layer-0は実装に踏み込まない。

  • Transformer attention、MoE、Dense、RoPE、RMSNorm、SwiGLU、MLA、GQA は、すべてLayer-0の 下層 にある実装枝である
  • Mamba/SSM、RWKV/再帰型もLayer-0の下層に位置する
  • 「次のアーキテクチャ」が出てきても、それがLLMである限り6役割は実装される

つまり、Transformerが廃れた時もLayer-0は生き残る。これがアーキ世代交代に耐える定義の意味だ。「Transformerに基づくAI」「MoEに基づくAI」のように実装で定義してしまうと、定義側が世代交代で死ぬ。Layer-0はそうならない。

これは何の役に立つのか

4つの用途がある。

1. 監査

責任境界が6つに固定されているということは、準拠チェックを再現可能に回せるということだ。make audit は決定論的にPASS/FAILを返し、JSON証明書を生成する。雰囲気判定でない監査が成立する。

2. 規制・標準化

「これはLLMか?」という規制上の問いに、引用根拠付きの形式境界を提供する。OpenAI・Anthropic・xAI・Meta・Mistral・DeepSeek・GLM・Qwenの公式言明を収束的根拠として錨付けてあるので、私見ではない。各プロバイダの自己記述が定理ドメインを支える証拠になる。

3. アーキテクチャ議論

「LLMとは何か」と「どう実装するか」を分離する共通語彙になる。「うちのモデルはMoEだから先進的」のような議論は、Layer-0の下層の話でしかない。Layer-0より上で議論しないと、上位概念がブレる。

4. 反例プロトコル

批判の作法を明示している。本定理を覆したいなら、より良い境界保存性をもつより厳しい最小分解か、妥当なLLM反例を提出する必要がある。「定義依存だ」は反証ではない。数学定理は構成上、定義と公理に依存する。

反例の作法

妥当な反例は、以下を両方満たす必要がある。

  1. 候補が通常の技術的用法において現代のLarge Language Modelであることを確立する
  2. 少なくとも1つのLayer-0役割と、その全機能等価物を欠いていることを確立する

大規模学習された文脈言語モデリングを欠くシステムは、LLM反例ではない。それは別のAI/テキストシステムだ。「広い意味での言語モデル」は別クラスとして扱うのがLayer-0の境界の引き方である。

「BERTは?」「単純なnグラム言語モデルは?」のような問いには、Layer Bの公開証拠マッピングで答える設計になっている。BERTはエンコーダ系であり Layer-0 の CONDITIONAL_LINGUISTIC_OUTPUT_SURFACEDECODING_OR_EMISSION_INTERFACE の責任分担が現代LLMと違う。これは反例ではなく、別クラスへの帰属である。

よくある異議への回答

  • 「これは定義依存だ」 — 反証ではない。数学定理は定義依存で構成される。批判するなら別の定義を提出するか、定義から導出される結論に矛盾を示す必要がある。
  • 「全モデルの経験的検査ではない」 — 反証ではない。定理は形式的、経験的証拠マッピングはLayer Bの役割。混同してはならない。
  • 「将来のアーキは違うかもしれない」 — 反証ではない。LLMなら6役割を実装する。実装しないなら別のAIクラスか、用語改訂を強制する。
  • 「Largeに固定パラメータ閾値はない」 — 反証ではない。Largeは現代的技術スケール条件であり、定理の作動機構ではない。スケール論を持ち出すと論点がずれる。

何を主張していないか

過剰主張をしない、というのも定理の境界の一部だ。

  • 意識・理解・意味・エージェンシー・人間等価の推論は主張していない
  • クローズド重みの内部の経験的検査は主張していない
  • 6つの英語ラベルが唯一可能な語彙だとは主張していない
  • Transformer・attention・MoE・RoPE・RMSNorm・SwiGLU・MLA・GQAが普遍的LLMルートだとは主張していない

ここに踏み込むと、Layer-0は形式定理であることを止めて思想表明になる。それは別の論点でやる。

階層の整理

主張は4階層に分けてある。

  • Layer 0:6つのLLM役割の数学的機能必然性。用語境界公理と役割分離議論で確立。
  • Layer A:有限義務グラフ定理。64部分集合の全列挙で実行可能証明書を出力。
  • Layer B:既知の公開LLMファミリの Layer 0 への対応。公式参照と公開モデルファミリ証拠で確立。
  • Layer 1+:Transformer / Dense / MoE / SSM / RWKV の枝配置。Layer 0 下層の実装枝。

この階層分離が、定理と経験的検査と実装議論を混ぜて扱わないための骨格になる。

まとめ

LLMが何であるかを、雰囲気・マーケティング・自己申告に任せず、責任境界の有限集合と全列挙で固定した。make audit 一発で再現でき、JSON証明書まで出る。Transformerが廃れても、MoEが廃れても、SSMが廃れても、6役割は残る。

監査・規制・アーキテクチャ議論で「これはLLMか」を言う時、Layer-0をリファレンスとして使ってほしい。リファレンスとして批判するのも歓迎する。反例プロトコルがそのために用意してある。

引用は CITATION.cff または上記Zenodo DOI経由でどうぞ。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?