5
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Flow Matchingをメタ的な視点へ ー 確率分布空間上のダイナミクスを学習 ー

Last updated at Posted at 2025-12-27

はじめに📢

ChatGPT Image 2025年12月28日 03_42_44.png

近年、生成モデルのパラダイムは GANやVAE から拡散モデル、そして Flow Matching (FM) へと急速にシフトしています。Flow Matching は、確率分布間の変換をベクトル場として学習することで、より安定かつ高速な生成を可能にしました。

しかし、既存の Flow Matching には実用上の大きな課題がありました。それは 「学習データに含まれていない条件(未知の分布)への汎化」 です☄️
例えば、従来の Conditional Flow Matching (CFM) は、クラスラベルやテキストといった条件 $c$ に基づいてベクトル場 $v_t(x|c)$ を学習しますが、これはあくまで既知のラベルに対する挙動を記憶しているに過ぎません。

「もし、全く新しい患者(未知の細胞集団)のデータが与えられたとき、その未来の状態を予測できるだろうか?👨‍⚕️」

この問いに答えるのが、ICLR 2025 に採択された "Meta Flow Matching (MFM)" です。
MFM は、条件ラベルの代わりに 「初期分布そのもの」 を入力とすることで、「分布の形状を見て、その後のダイナミクスを決定する」 という確率分布空間(Wasserstein多様体)上でのメタ的な規則を学習します。

そこで本記事ではMeta Flow Matching (MFM) を、

Flow Matching (FM) → Conditional FM → 分布依存ダイナミクス

という流れで 解説していきます。


目次

  1. 問題設定:何を学習したい?
  2. Flow Matching (FM)
  3. Conditional Flow Matching (CFM)
  4. なぜ「分布依存の速度場」が必要か?
  5. Wasserstein 多様体の視点
  6. Meta Flow Matching (MFM) の理論構成
  7. 推論(サンプリング):未知の集団の未来を予測する
  8. 実験:未知の分布形状への汎化
  9. まとめ:個別解から「法則」の学習へ

1. 問題設定:何を学習したい?👀

個々のサンプル $x \in \mathcal{X} \subset \mathbb{R}^d$ が集まって 分布 $p(x)$ を形成しているとします。

我々が観測できるのは、ある集団(Population)の

  • 初期分布 $p_0$
  • 終状態分布 $p_1$

であり、目標は
$$
p_0 \longrightarrow\ p_1
$$
という変化を 連続時間の力学として生成できるモデルを学ぶことです。

一般に、確率分布の時間発展は以下の 連続方程式 (continuity equation) で記述されます:

$$
\frac{\partial p_t(x)}{\partial t} = - \langle \nabla_x, p_t(x) v_t(x) \rangle
$$

ここで $v_t(x)$ は $x$ の速度場(Vector Field)です。
通常の Flow Matching (FM) では、この $v_t(x)$ をニューラルネットワークで近似し、単一の $p_0 \to p_1$ を学習します。

しかし、これだけでは課題が。。。😣

細胞集団のダイナミクスや多体問題においては、相互作用によって「個々の粒子の動きが、周りの分布に影響される」 ことが多いです。また、実応用上は「未知の初期分布 $p_0'$ が来たときに、その分布形状に応じた動きを予測したい」というニーズはどうしても出てきてしまいます。

つまり単なる位置依存の場 $v_t(x)$ では、これらの「分布への依存性」を記述できないという課題が挙げられます。そこでMFM では、ベクトル場が分布そのものに依存する形へと拡張した以下のような定式化を考えます:

$$
\frac{\partial p_t(x)}{\partial t} = - \langle \nabla_x, p_t(x) v_t(x, p_t) \rangle
$$

次の章からは Flow Matching (FM)の定式化から始め、どうMFMは拡張に成功したのか解説していきます。


2. Flow Matching (FM)🧞‍♀️

2.1 分布間補間の定義

2つの分布 $p_0, p_1$ の間に 結合分布 $\pi(x_0, x_1)$ を考えます:

$$
\begin{aligned}
\int \pi(x_0,x_1),dx_1 = p_0(x_0), \
\int \pi(x_0,x_1),dx_0 = p_1(x_1)
\end{aligned}
$$

補間関数 $f_t$ を使って

$$
\begin{aligned}
x_t = f_t(x_0, x_1), \
f_0 = x_0,\quad f_1 = x_1
\end{aligned}
$$

典型例は線形補間(内分みたいな感じですね):

$$
f_t(x_0,x_1) = (1-t)x_0 + t x_1
$$


2.2 補間分布と連続の式

補間によって誘導される分布 $p_t$ は以下のように表せます。

$$
\begin{aligned}
p_t(x)
&=
\int \pi(x_0,x_1)
\delta\bigl(x - f_t(x_0,x_1)\bigr)
dx_0dx_1
\end{aligned}
$$

つまり「時刻 $t$ において、点 $x$ に粒子が存在する確率密度 $p_t(x)$ は、そこを通るすべての経路の確率 $π(x_0​,x_1​)$ を足し合わせたものである」ということです。

この $p_t$ は次の連続方程式を満たします:

$$
\begin{aligned}
\frac{\partial p_t(x)}{\partial t}
&=
-\langle \nabla_x, p_t(x), v_t^*(x) \rangle
\end{aligned}
$$

ここで真の速度場は以下のように表せます。

$$
\begin{aligned}
v_t^*(\xi)
&=
\frac{1}{p_t(\xi)}
\mathbb{E}_{(x_0,x_1)\sim \pi}
\Bigl[
\delta(f_t(x_0,x_1)-\xi)
\frac{\partial f_t(x_0,x_1)}{\partial t}
\Bigr]
\end{aligned}
$$


この辺は適宜導出してもいいかもです。


2.3 学習目的

本来、学習したいのは分布 $p_t$ を正しく動かすベクトル場 $v_t^*(x)$です。
理想的な目的関数は、真のベクトル場との二乗誤差を最小化することでしょう:

\mathcal{L}_{\mathrm{ideal}}(\omega) = \mathbb{E}_{t, x_t} \left[ \| v_t(x_t;\omega) - v_t^*(x_t) \|^2 \right]

しかし、この 真のベクトル場 $v_t^*(x)$ は未知 であり、計算できません(分布全体を知る必要があるため)。

ここで Flow Matching の強力な定理が登場します。
「個々のサンプルペア $(x_0, x_1)$ を結ぶ 個別のパスの速度 $\frac{\partial}{\partial t}f_t$」をターゲットにして学習すれば、結果として真のベクトル場 $v_t^*$ を学習したことになる、というものです。

\mathcal{L}_{\mathrm{FM}}(\omega) = \mathbb{E}_{(x_0,x_1)\sim\pi} \int_0^1 \left\| \frac{\partial f_t(x_0,x_1)}{\partial t} - v_t(f_t(x_0,x_1);\omega) \right\|^2 \, dt

つまり、「自分たちが勝手に決めた補間パスの微分(計算可能)」をひたすら教師として学習させれば、モデルは自動的に「分布全体を正しく運ぶベクトル場(未知)」へと収束するということです。これが Flow Matching がうまくいき、かつ実装が簡単である理由です。


3. Conditional Flow Matching (CFM)🧞

FMを条件付きに拡張しただけです。
条件 $c$(クラス、条件変数など)がある場合、

$$
(x_0,x_1) \sim \pi(x_0,x_1 \mid c)
$$

とし、速度場を

$$
v_t(x \mid c)
$$

に拡張します。

損失関数は以下のように定式化されます。

\mathcal{L}_{\mathrm{CFM}} = \mathbb{E}_{c} \mathbb{E}_{(x_0,x_1)\sim \pi(\cdot\mid c)} \int_0^1 \left\| \partial_t f_t(x_0,x_1) - v_t(f_t(x_0,x_1)\mid c) \right\|^2 \, dt

4. なぜ「分布依存の速度場」が必要か?🎃

現実の多くの系、特に生物学や物理学においては、個々の粒子の運動は単独で決まるのではなく、集団全体 に依存して決まります。

4.1 平均場相互作用 (Mean-field Interaction)

最も代表的な例が「平均場相互作用」です。
ある粒子 $x$ の速度が、他のすべての粒子 $y \sim p_t$ からの影響(カーネル $k(x,y)$)の総和で決まる場合を考えます。

$$
\frac{dx}{dt} = \mathbb{E}_{y\sim p_t}[k(x,y)]
$$

これに対応する確率密度の時間変化(連続の式)は以下のようになります:

$$
\frac{\partial p_t(x)}{\partial t} = - \left\langle \nabla_x,p_t(x)\mathbb{E}_{y\sim p_t}[k(x,y)] \right\rangle
$$

直感的な理解:細胞の相互作用🧫

これを細胞生物学の文脈で考えてみましょう。
細胞は孤立して生きているわけではありません。周りの細胞が出すシグナル物質(リガンド)を受け取り、それに応じて自分の挙動(分化や移動)を変えます。

  • $k(x,y)$: 細胞 $y$ が細胞 $x$ に与える影響(シグナル強度)。
  • $\mathbb{E}_{y \sim p_t}$: 「今、周りにどんな細胞がどれくらいいるか」という集団全体からの影響の合計。

つまり、「周りの空気を読んで動く」ようなシステムです。
通常の Flow Matching が学習する $v_t(x)$ は「場所に紐付いた固定の風向き」のようなもので、この「周りの状況に応じた変化」を捉えることができません。
MFM は、この項を $v_t(x, p_t)$ として明示的にモデル化することで、相互作用する複雑なダイナミクスを扱えるようにしています。


4.2 拡散過程 (Diffusion)

もう一つの重要な例が、熱方程式としても知られる「拡散」です。
粒子がランダムなノイズ(ブラウン運動)によって広がっていく様子は、確率密度の時間発展として以下の Fokker–Planck 方程式 で記述されます。

$$
\frac{\partial p_t(x)}{\partial t} = \frac{1}{2}\Delta p_t(x)
$$

一見すると、これはランダムな現象に見えます。しかし、恒等式 $\nabla p = p \nabla \log p$ を用いて式変形すると、これを「ある速度場 $v_t$ を持つ連続の式」の形に書き直すことができます。

$$
\frac{\partial p_t}{\partial t} = -\nabla \cdot \left( p_t(x) \underbrace{\left( -\frac{1}{2}\nabla \log p_t(x) \right)}_{v_t(x)} \right)
$$

つまり、個々の粒子の動き(常微分方程式)としては以下のように書けます。

$$
\frac{dx}{dt} = -\frac{1}{2}\nabla \log p_t(x)
$$

この式の意味を考えてみましょう。

  • スコア関数 $\nabla \log p_t(x)$ は、「密度が高い方向」を指します。
  • そのマイナス方向への移動ということは、「密度が高い場所から低い場所へ逃げる」 動きを表します。

拡散現象とは、「混雑している場所から空いている場所へ粒子が押し出される流れ」と解釈できるわけです。
ここでも、速度場を決めるためには 「今、どこが混雑しているか(分布 $p_t$)」という情報が不可欠になります。

👉 これら 4.1, 4.2 の例が示すように、自然界のダイナミクスを正しく記述するには、速度場が分布そのものに依存する形式 $v_t(x, p_t)$ がどうしても必要なのです。


5. Wasserstein 多様体の視点🌎

ここでは視点を一段階上げて、個々のデータ $x$ ではなく、分布 $p$ そのものを一つの「点」 とみなす幾何学的な世界を考えます。


5.1 分布の空間

2次のモーメントが有限な確率分布全体の集合を $\mathcal{P}_2(\mathcal{X})$ と書きます。
これを Wasserstein 空間(多様体) と呼びます。2次のモーメントが有限(Wasserstein距離が計算可能)という制約条件があるため、この空間はなんでも確率分布なら許すわけではなく、例えばコーシー分布のように分散が発散しているものなんかは認めません。

  • : この空間内の1点 $\mu \in \mathcal{P}_2$ が、現実空間での一つの「分布」に対応します。
  • 距離: 2点間の距離は、Wasserstein 距離(分布を別の分布に輸送する最小コスト)で測ります。
  • 曲線: 時間発展する分布 $p_t$ は、この空間上を動く 「1本の曲線(軌跡)」 として表現されます。

5.2 接空間とベクトル場

多様体上を点が動くとき、その瞬間ごとの進む方向を 接ベクトル と言います。Wasserstein 幾何学(Otto Calculus)において、ある分布 $\mu$ における接ベクトルは、現実空間上の関数 $\phi$ の勾配場 $\nabla \phi$ と同一視できることが知られています。

\mathrm{Tan}_\mu \mathcal{P}_2 = \{ \nabla \phi \}_{L^2(\mu)}

「分布 $\mu$ をちょっと動かす」ということは、「分布 $\mu$ を構成する粒子たちを、ある速度場 $\nabla \phi$ に沿って一斉に動かす」ことと等価である。ということです。つまり、現実空間での「粒子の流れ」は、Wasserstein 空間での「分布の速度ベクトル」そのものというわけです。


5.3 Flow Matching (FM) vs Meta Flow Matching (MFM)

この視点に立つと、従来手法と提案手法の違いが鮮明になります。

スクリーンショット 2025-12-28 2.56.36.png

  • Flow Matching (FM):
    Wasserstein 空間上の 「特定の1本の曲線(軌道)」 に沿った接ベクトルだけを学習します。その軌道から外れた場所での挙動は定義されません。

  • Conditional FM (CFM):
    条件 $c$ ごとに異なる、「有限個の曲線」 を学習します。しかし、依然として「レールの上の走り方」しか知りません。

  • Meta Flow Matching (MFM):
    Wasserstein 空間全体(あるいは広範な領域)に定義された 「ベクトル場そのもの」 を学習します。
    「この分布 $\mu$ にいるなら、あっちに進め」というルールを空間全体で獲得するため、**未知の分布(レールがない場所)からスタートしても、風に乗るように正しい方向へ進むことができます。

これが、MFM が「Wasserstein 多様体上のベクトル場を積分する」と表現される所以です。


6. Meta Flow Matching (MFM) の理論構成🎲

ここでは、MFM の数式的な定義と、それがなぜ「未知の分布のダイナミクス」を学習できるのか、その理論的背景を3つのステップで解説します。

6.1 MFM の数式定義

分布依存ダイナミクス

MFM が対象とするのは、粒子が互いに影響し合うような系です。これは速度場が密度 $p_t$ に依存する形で書かれます。

$$
\frac{\partial p_t(x)}{\partial t} = -\langle \nabla_x, p_t(x), v_t(x,p_t) \rangle
$$

埋め込みによる条件付け

しかし、密度 $p_t$ そのものを入力するのは計算上困難です。そこで、「初期分布 $p_0$」の情報ですべてを代表させるアプローチを取ります。
初期サンプル集合を 分布埋め込み $\phi$ でベクトル化し、それを条件とします。

$$
v_t(x \mid \phi(p_0))
$$

学習目的関数

学習は、通常の Flow Matching と同様に、補間パスの微分を教師として行います。

\mathcal{L}_{\mathrm{MFM}} = \mathbb{E}_{(x_0,x_1)} \int_0^1 \left\| \partial_t f_t(x_0,x_1) - v_t(f_t(x_0,x_1)\mid \phi(p_0)) \right\|^2 \, dt

6.2 なぜこれで学習できるのか?(理論的背景)

一見すると、単に条件を変えただけに見えるこの式が、なぜ「正しい物理法則(ベクトル場)」を学習できるのでしょうか?
論文 Section 3 で語られる理論的正当性は、以下の 3つのロジック で支えられています。

ロジック1:Amortization(「答え」ではなく「解き方」を学ぶ)

通常の Flow Matching は、ある特定の結合分布 $\pi$ に対して、最適なベクトル場 $v_t^*$ を求める 最適化問題 でした。

$$
v_t^*(\cdot;\pi) = \arg\min_{v_t} \mathcal{L}_{\mathrm{FM}}(v_t,\pi)
$$

しかし、これでは分布 $\pi$ が変わるたびに再学習が必要です。
MFM の発想は、この最適化プロセスを 償却(Amortize) することにあります。すなわち、分布 $\pi$ を入力として受け取り、即座にその分布に対する最適解 $v_t^*$ を出力する関数(メタなソルバー)を作ろうというわけです。

$$
v_t(\cdot \mid \phi(\pi)) \approx v_t^*(\cdot;\pi)
$$

ロジック2:一意性(初期分布がすべてを決める)

「でも、今の分布 $p_t$ が重要なのでは? なぜ初期分布 $p_0$ だけでいいの?」という疑問が湧きます。

ここで重要なのが Cauchy問題の一意性 という仮定です。
決定論的な物理法則(または一意な解を持つ確率微分方程式)において、初期状態 $p_0$ が定まれば、その後の経路 $(p_t)_{t \in [0,1]}$ および最終状態 $p_1$ は一意に定まります。

$$
p_0 \implies (p_t)_{t\in[0,1]} \implies p_1
$$

つまり、最適なベクトル場 $v_t^*$ は実質的に $p_0$ の関数である とみなせます。だからこそ、分布全体 $\pi$ の代わりに、初期分布の埋め込み $\phi(p_0)$ を条件にするだけで十分なのです。

ロジック3:Theorem 1(観測不可能な「真の場」への収束)

最後に、「損失関数 $\mathcal{L}_{\mathrm{MFM}}$ は、本当に真のベクトル場を導くのか?」という数学的な保証です。

理想的には、真の最適ベクトル場 $v_t^*$ との誤差を最小化したいはずです。

\mathcal{L}_{\mathrm{ideal}} = \mathbb{E} \int_0^1 \left\|  v_t^*(x_t) - v_t(x_t \mid \phi(p_0)) \right\| ^2 \ dt

しかし $v_t^*$ は未知です。

ここで Theorem 1 は、計算可能な $\mathcal{L}_{\mathrm{MFM}}$ と、理想的な損失が 定数の差を除いて等価であることを保証する。

\mathcal{L}_{\mathrm{MFM}} = \mathcal{L}_{\mathrm{ideal}} + C

これにより、「補間パスの微分($\partial_t f_t$)」に合わせて学習するだけで、モデルは自動的に「見えない真のベクトル場($v_t^*$)」へと収束することが数学的に担保されています。


6.3 まとめ:MFM が達成していること

以上のロジックを統合すると、MFM は以下の包含関係を実現していると言えます(Proposition 1)。

  1. 一般化: もし条件が単純なラベル $c$ なら、$\phi(p_0) \approx c$ となり、従来の Conditional FM に一致する。
  2. 拡張: ラベルでは表現できない「分布の形状差」がある場合、MFM はそれを $\phi(p_0)$ として取り込み、分布ごとの微細なダイナミクスの違いを表現する。

つまり MFM は、「Wasserstein 多様体上のベクトル場(分布 $\to$ 流れ の写像)」 を学習するフレームワークとして理論的に正当化されているのです。


Theorem 1 の証明(気になる方向け)✍️

本文中に出てきたTheorem 1の証明を示します。

証明の流れ

証明のゴールは、以下の「理想的な損失関数(真の解 $v_t^*$ との二乗誤差)」を変形して、MFM の損失関数に定数差で一致させることです。

\mathcal{L}_{\mathrm{ideal}}(\omega) = \mathbb{E}_{p(c)} \int_0^1 \mathbb{E}_{p_t(x|c)} \| v_t^*(x|c) - v_t(x|\phi(p_0);\omega) \|^2 dt

Step 1: 二乗項の展開

被積分関数の中身 $| A - B |^2 = |A|^2 - 2\langle A, B \rangle + |B|^2$ を展開します。

\begin{aligned}
\mathcal{L}_{\mathrm{ideal}} &= \quad \mathbb{E}_{p(c)} \int_0^1 \mathbb{E}_{p_t(x|c)} \| v_t^*(x|c) \|^2 dt \quad (\text{項1: 定数}) \\
&\quad - 2 \mathbb{E}_{p(c)} \int_0^1 \mathbb{E}_{p_t(x|c)} \langle v_t^*(x|c), v_t(x|\phi(p_0);\omega) \rangle dt \quad (\text{項2: クロス項}) \\
&\quad + \mathbb{E}_{p(c)} \int_0^1 \mathbb{E}_{p_t(x|c)} \| v_t(x|\phi(p_0);\omega) \|^2 dt \quad (\text{項3: モデル項})
\end{aligned}

ここで、「項1」は真のベクトル場 $v_t^*$ のノルムであり、学習パラメータ $\omega$ に依存しないため、最適化においては無視できる定数 $C_1$ とみなせます。

Step 2: クロス項の書き換え

「項2」の期待値 $\mathbb{E}_{p_t(x|c)}$ を積分形式で書き下すと、密度 $p_t(x|c)$ が現れます。

$$
\text{項2} = -2 \mathbb{E}_{p(c)} \int_0^1 \int p_t(x|c) \langle v_t^*(x|c), v_t(x|\phi(p_0);\omega) \rangle dx dt
$$

ここで、Flow Matching の基本定義である 連続方程式を満たすベクトル場の構成式 を使います。

$$
p_t(x|c) v_t^*(x|c) = \mathbb{E}_{\pi(x_0,x_1|c)} \left[ \delta(x - f_t(x_0,x_1)) \frac{\partial f_t(x_0,x_1)}{\partial t} \right]
$$

これを「項2」に代入すると、$\delta$ 関数のおかげで $x$ に関する積分が消え、期待値が $\pi$(個々のパス)上の期待値に置き換わります。つまり、未知の $v_t^*$ が、既知の補間微分 $\frac{\partial f_t}{\partial t}$ に化けます。

\text{項2} = -2 \mathbb{E}_{p(c)} \mathbb{E}_{\pi(x_0,x_1|c)} \int_0^1 \langle \frac{\partial f_t}{\partial t}, v_t(f_t|\phi(p_0);\omega) \rangle dt

Step 3: 平方完成して MFM 損失へ

変形した「項2」と、元の「項3」を合わせます。「項3」も同様に $\pi$ 上の期待値で書けます($x$ を $f_t$ に置き換えるだけ)。

さらに、学習に無関係な定数項として、補間微分の二乗ノルム $\mathbb{E} \int | \frac{\partial f_t}{\partial t} |^2 dt$ (定数 $C_2$)をあえて足し合わせます。すると、ふたたび二乗の形に因数分解(平方完成)できます。

\begin{aligned}
\mathcal{L}_{\mathrm{ideal}} &= \mathbb{E}_{p(c)} \mathbb{E}_{\pi(x_0,x_1|c)} \int_0^1 \left( \| v_t \|^2 - 2 \langle \frac{\partial f_t}{\partial t}, v_t \rangle + \| \frac{\partial f_t}{\partial t} \|^2 \right) dt + \text{Const} \\
&= \mathbb{E}_{p(c)} \mathbb{E}_{\pi(x_0,x_1|c)} \int_0^1 \left\| \frac{\partial f_t(x_0,x_1)}{\partial t} - v_t(f_t(x_0,x_1) | \phi(p_0); \omega) \right\|^2 dt + \text{Const}
\end{aligned}

最後に、条件 $c \sim p(c)$ とサンプル $\pi(\cdot|c)$ の期待値は、データセット $\mathcal{D}$ 全体での期待値 $\mathbb{E}_{i \sim \mathcal{D}}$ と等価であるため、

\mathcal{L}_{\mathrm{MFM}} = \mathcal{L}_{\mathrm{ideal}} + C

となるようなMFM の目的関数が導かれました。 $\square$


7. 推論(サンプリング):未知の集団の未来を予測する🤖

学習が完了したモデル(ベクトル場 $v_t$ と埋め込みモデル $\phi$)を使えば、学習データには存在しなかった全く新しい集団(未知の患者など) に対しても、その時間発展を予測できます。

具体的な手順は以下の3ステップです。

Step 1: 観測と埋め込み (Population Embedding)

まず、新しい初期集団から細胞(粒子)のサンプル集合 ${x_0^j}_{j=1}^{M}$ を取得します。
これらを入力として、学習済みの GNN $\phi$ で「集団全体の埋め込みベクトル」を計算します。

$$
h_{\text{test}} = \phi({x_0^j}_{j=1}^{M}; \theta^*)
$$

この $h_{\text{test}}$ が、この集団特有の「個性(ダイナミクスのルール)」を表します。

Step 2: 粒子の時間発展 (ODE Solving)

次に、各粒子 $x_0^j$ を初期値として、以下の常微分方程式(ODE)を解きます。

$$
\frac{d x_t^j}{dt} = v_t(x_t^j \mid h_{\text{test}}; \omega^*)
$$

ここで重要なのは、すべての粒子が共通の条件 $h_{\text{test}}$ を参照している 点です。
これにより、個々の粒子は「自分自身の現在地 $x_t^j$」だけでなく、「自分が所属している集団の性質 $h_{\text{test}}$」を考慮して、適切な方向へ移動します。

Step 3: 予測分布の形成

時刻 $t=0$ から $t=1$ まで数値積分(Euler法やRK45など)を行うことで、予測された終状態のサンプル集合 ${x_1^j}_{j=1}^{M}$ が得られます。

$$
x_1^j = x_0^j + \int_0^1 v_t(x_t^j \mid h_{\text{test}}; \omega^*) dt
$$

これが、モデルが予測した未来の分布 $p_1$ となります。

MFM の強み:Zero-shot 汎化

従来の Conditional Flow Matching (CFM) では、条件 $c$ が「患者ID」などの離散ラベルであったため、未知の患者(新しいID)が来た瞬間に手も足も出ませんでした。

一方 MFM では、「入力された分布の形状」そのものが ID の代わり になります。
過去に学習したデータと似たような初期分布を持つ集団であれば、埋め込み $h$ も近い値になり、学習済みの法則を適用して妥当な予測が行えます。

これが、MFM が 「未知の集団に対しても汎化できる(Zero-shot generalization)」 理由です。


8. 実験:未知の分布形状への汎化🚀

理論の有効性を確かめるため、論文中の "Synthetic Letter Denoising"(文字のノイズ除去) タスクを再現実験し、モデルが「見たことのない分布」に対してどう振る舞うかを検証しました。

7.1 実験設定:モデルは「X,Y」を知らない

この実験の肝は、学習データとテストデータの分割にあります。

  • 学習データ: アルファベット26文字のうち 24文字 (A, B, C... など)。
  • テストデータ: 学習には一切含めない 未知の2文字(X, Y)

タスクは、拡散プロセスによってノイズが乗った初期分布 $p_0$(ぼやけた点群)から、元のシャープな形状 $p_1$ へ戻す「逆拡散」の流れを学習することです。

7.2 結果:IDではなく「形」を見る

以下は、学習済みモデルに 未知の文字「X,Y」 のノイズ分布を入力した際の時間発展($t=0 \to 0.5 \to 1.0$)です。

スクリーンショット 2025-12-28 2.52.27.png

スクリーンショット 2025-12-28 2.51.58.png

(図:Source ($t=0$) のノイズ分布から、Target ($t=1$) の「X,Y」の字が復元されている様子)

既存手法 (Flow Matching) の限界

通常の Flow Matching や Conditional FM では、このタスクは解けません。モデルは「X,Y」というラベルを知らないため、学習データ(A〜W)の平均的な挙動を出力してしまい、結果として 形が崩れた無意味な分布 になってしまいます。(今回は実験していませんが,論文中にはその様子が示されています。)

MFM の挙動

一方で、MFM は見事に 「X,Y」の字を再構成 できました。
これは、MFM が「文字のラベル」を記憶しているのではなく、初期分布 $p_0$(ノイズ混じりの点群)の 幾何学的な特徴 を GNN で読み取り、その形状に応じたダイナミクスを即座に生成しているためです。
例えば、

「この点群の散らばり方は、3方向に分岐しようとしている(つまりYだ)」

という構造的な法則を、モデルが獲得していることがわかります。
この結果は、MFM が単なるデータの記憶装置ではなく、分布の形状に対する汎化能力(Zero-shot Generalization) を持っていることを強く示唆しています。


9. まとめ:個別解から「法則」の学習へ⚒️

本記事では、Flow Matching を分布空間上のメタ学習へと拡張した Meta Flow Matching (MFM) について解説しました。

従来の枠組みとの決定的な違い

最後に、3つの手法の違いを表で整理します。

手法 速度場の形式 学習しているもの 未知の集団への対応
FM $v_t(x)$ 「平均的な」1本の軌道 $\times$ (平均化されてしまう)
CFM $v_t(x \mid c)$ ラベル $c$ ごとの複数の軌道 $\times$ (ラベルがないと動けない)
MFM $v_t(x \mid \phi(p_0))$ 分布空間上のベクトル場 $\bigcirc$ (分布形状を見て予測可能)

MFM の本質的意義

MFM の革新性は、以下の2点に集約されます。

  1. 条件 $c$ の自動抽出:
    人間がラベル $c$ を与えるのではなく、モデル自身が初期分布 $p_0$ を観察し、そこから「この集団はどういうダイナミクスを持つべきか」という条件(埋め込み $h$)を抽出します。これにより、ラベル付け不可能な微細な個体差も反映可能になります。

  2. 最適化の償却 (Amortization):
    従来の Flow Matching が「ある特定の分布間の移動(解)」を学習していたのに対し、MFM は「任意の分布が与えられたときに、どう移動すべきか(解き方)」を学習しています。これは数学的には、Wasserstein 多様体全体に定義されたベクトル場を積分すること と等価であり、真の意味での「分布のダイナミクス学習」を実現したと言えます。

今後の展望

本技術は、特に 個別化医療(Personalized Medicine) において強力なツールとなります。
「過去の患者データ」からメタな法則を学習しておけば、「目の前の新しい患者(未知の $p_0$)」 の細胞が、薬に対してどう反応するかを予測できるためです💊
Flow Matching は単なる画像生成のツールを超え、科学的発見のためのシミュレータへと進化しつつあります。

参考📃

Atanackovic, Lazar, et al. "Meta Flow Matching: Integrating Vector Fields on the Wasserstein Manifold." The Thirteenth International Conference on Learning Representations. https://openreview.net/pdf?id=9SYczU3Qgm

5
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?