1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

SPReAD1000の申請が本当にChallenge型だった件

1
Posted at

はじめに

この記事で分かること:

  • 文部科学省「AI for Science萌芽的挑戦研究創出事業(SPReAD)」の公募内容と、その革新的な制度設計
  • 申請〜研究実施に求められるスキルセットの全体像
  • 本気で採択を目指すために、筆者が考えた「AIエージェントで乗り越える」戦略
  • そのために作った OSS ツール spread1000-builderCoreClaw の紹介

想定読者: SPReAD に興味がある研究者、AI for Science に関心のあるエンジニア、研究支援に携わる方

📖 所要時間: 約10分

2026年4月17日、文部科学省から新しい競争的研究費の公募が始まりました。

「AI for Science 萌芽的挑戦研究創出事業(SPReAD)

正式名称が長いので、界隈では「SPReAD1000」とか「チャレンジ型」と呼ばれています。仮称が「AI for Scienceによる科学研究革新プログラム チャレンジ型」だったからです。

公募要領と申請様式を隅々まで読み込んでみたところ、これがとにかく面白い。制度設計が攻めている。AIインタビューにランダム採択、伴走支援にコミュニティ形成。従来の競争的研究費の枠を大きく超えた、ワクワクする制度です。

ただ同時に、「これ、本気で採択されるにはどうすればいいんだ?」と頭を抱えたのも事実。特にIT系ではない分野の研究者にとって、申請書に求められる内容のハードルが意外と高い。

そこで筆者は考えました。 「AI for Scienceの申請を、AI for Scienceで攻略すればいいのでは?」 と。

この記事は、SPReAD の制度を真剣に読み解き、本気で採択を目指すために筆者がたどった思考プロセスと、その結果生まれたツールの紹介です。

SPReAD1000 とは何か

事業の背景

AI for Science ―― AI を科学研究に組み込むことで、研究の可能性を広げ、速度と精度を飛躍的に高める取り組みが世界的に加速しています。欧州は「AI in Science戦略」、米国は「Genesis Mission」を打ち出し、日本も2025年12月の「人工知能基本計画」で AI for Science を国家戦略に位置づけました。

SPReAD はこの流れの中で、あらゆる分野の研究者にAI活用の門戸を開くという、非常に意欲的なビジョンを持って設計された事業です。3つの柱が印象的でした。

内容
①迅速な支援 AI 分野の技術革新速度に対応した機動的な審査・採択
②伴走支援 AI 導入の障壁を取り除くコミュニティ形成・問い合わせ窓口
③独創的研究の芽出し 萌芽的・探索的な研究の試行を積極支援

基本スペック

項目 内容
補助上限額 500万円以下(直接経費)
間接経費 直接経費の30%
研究期間 交付決定日 〜 令和9年1月6日(約180日
対象 あらゆる分野の研究者等(学生含む)
応募制限 1人1課題
提出期限 2026年5月18日(月)正午

審査がユニーク

SPReAD の審査は二段階で、しかも従来の競争的研究費では見たことのない攻めた設計になっています。読んでいてワクワクしました。

第一段階: AIインタビュー + 書類で審査区分を決定

  • AIインタビューは「株式会社 Quest Research」のシステムで実施
  • AI が質問し、応募者が音声で回答(10〜20分)
  • SNS等への質問内容の漏洩は厳禁(違反すると不採択)

第二段階: ピアレビュー + 無作為抽出(ランダム採択)

  • 乱数で採択候補を機械的に選定する方式を組み合わせ
  • 審査委員の個別コメントは一切開示されない

💡 ランダム採択を組み込んでいる競争的研究費は、日本では極めて珍しいです。「不確実性の高い研究に対して、従来のピアレビューだけでは評価しきれない」という問題意識のもと、多様な研究の芽を拾い上げようとする意欲的な試みです。

ターゲットユーザーは誰か ―― 間口の広さに驚く

公募要領には、こう書かれています。

人文学、社会科学から自然科学までのあらゆる分野の研究者等を対象として(中略)初めてのAIの導入・適用・改善を通じて新たな研究展開を目指す萌芽的・探索的な提案等を積極的に対象とします。

研究領域の分類を見てみましょう。

研究領域
臨床科学 内科医学、外科医学、口腔科学
生命科学・薬学 細胞生物学、神経科学、薬学
化学 有機化学、無機化学
機械・社会基盤・エネルギー工学 土木工学、建築学、航空宇宙
材料・プロセス・応用医工学 ナノ・マイクロ科学
電気電子・情報・CS 情報科学、人間情報
数学・物理学・地球科学 宇宙物理、天文学
農学・環境学・生態学 森林科学、環境保全
社会科学 文化人類学、法制度、政治学、経済学
芸術・人文科学 哲学、芸術学、文学、歴史学、考古学

つまり、考古学の先生も、哲学の研究者も、文学部の大学院生も、ターゲットです。

「AIなんて使ったことないけど、自分の研究に取り入れてみたい」という層にこそ門戸を開いている。この包括性は本当に素晴らしい。これまでの AI 関連研究費は情報系の研究者が中心でしたが、SPReAD は全分野に手を差し伸べているわけです。

本気で採択を目指して申請書を読み解いてみた

さて、ここからが本題です。「よし、応募しよう!」と決めて申請書類を読み進めていくと、思ったよりも専門的な記述が求められることに気づきます。これは批判ではなく、「ここをクリアすれば採択に近づく」というポイントの整理です。

経費設計のポイント

研究計画調書の経費区分を確認すると、一つ重要な特徴があります。府省共通経費取扱区分表の「人件費」の特記事項。

本事業において人件費の支出は対象外となります。

つまり、ポスドクやリサーチアシスタントを雇ってコードを書いてもらう、という選択肢はありません。一方で、以下は使えます。

✅ 設備備品費(GPU搭載サーバ、ワークステーション等)
✅ 消耗品費
✅ 謝金(外部有識者への技術指導等)
✅ 旅費
✅ その他(クラウドGPU利用料、API費用、ライセンス料等)

クラウドGPUやAPI費用がしっかり計上できるのは大きな強みです。つまり、計算資源のコストは事業費で賄える。あとは「それを使いこなす部分」を自分でどう乗り越えるか。ここが採択の鍵になります。

💡 人件費が対象外ということは、逆に言えば研究者自身がAIを使いこなすことそのものが、この事業の狙いでもあります。「自分の手でAIを動かす経験」を研究者に積んでもらうための設計、と読み解けます。

採択に必要なスキルを棚卸ししてみる

本気で採択を目指すなら、何が必要かを正確に把握しておくべきです。申請〜研究実施に必要なスキルを洗い出してみました。

申請時に必要なスキル

やるべきこと 必要なスキル
研究計画調書の作成(Excelのまま提出) Excel操作、文字数制限への対応
AIインタビューへの対応 AIとの音声対話(10〜20分)
GPU種類の選定と根拠記述 「NVIDIA A100とV100の違いは?」に答えられる知識
API費用の算定根拠 入力トークン数、出力トークン数、再実行率の見積もり
クラウドGPU利用料の算定 Azure / AWS / GCP の料金体系の理解
研究方法の記述 「各工程においてAIをどのように適用するか」を具体的に

研究実施時に必要なスキル

やるべきこと 必要なスキル
クラウド環境の構築 Azure / AWS のインフラ構築
GPU環境のセットアップ CUDA、Docker、conda 環境構築
データの前処理・整備 Python、pandas、データエンジニアリング
AIモデルの選定・適用 機械学習・深層学習の実践知識
API連携の実装 REST API、SDK の利用
実験の再現性管理 Git、MLflow、実験管理ツール
180日での成果報告 論文執筆・報告書作成

ここが踏ん張りどころ

一方、公募要領が想定する「AI利活用度合い」の選択肢を見ると

  • 研究でAIをまったく使っていない
  • 研究そのもの以外の業務(メール・翻訳等)でAIを使っている
  • 研究における文献探索や要約にAIを使っている

一番上の選択肢が存在するということは、「AIをまったく使っていない研究者」が応募してくることを想定した制度設計です。これは SPReAD の大きな魅力ですが、同時に、上の表に並んだスキルセットとのギャップをどう埋めるかが採択のカギになります。

考古学の先生が、180日で、GPU環境を構築し、AIモデルを回し、成果を出す。

正直に言って、これは相当な Challenge です。でも、逆に言えばこのギャップを埋める方法を示せれば、それ自体が説得力のある研究計画になるはず。

採択戦略を考える

ギャップを埋めるための選択肢を真剣に検討してみました。

1. 伴走支援をフル活用する

SPReADは「伴走支援」を柱の一つに掲げており、コミュニティ形成や問い合わせ窓口の設置を予定しています。これは積極的に活用すべきです。ただし、採択前の申請段階でどこまで支援が受けられるかは、今後の情報公開を待つ必要があります。

2. 情報系の知見を持つ協力者に相談する

SPReAD は「研究代表者個人で行う研究計画」が対象ですが、謝金で外部有識者の技術指導を受けることは可能です。研究計画の段階から AI に詳しい方に相談するのは有効な戦略です。

3. AIエージェントを「もう一人の自分」として使う ← 筆者はこれを選んだ

2026年現在、GitHub Copilot のエージェントモード、Claude、GPT-4o などの AI コーディングエージェントは、インフラ構築からコード生成、コスト試算まで幅広く支援できるレベルに達しています。

「人を雇えないなら、AIエージェントに伴走してもらえばいい」

SPReAD が「AI を研究に使え」と言っている以上、研究計画の策定や環境構築にもAIを活用するのは、むしろ事業の趣旨に合致しているのでは? そう考えて、専用のツールを作ることにしました。

spread1000-builder を作った

SPReAD の申請から採択後の研究実施までを一貫してAIエージェントで支援する、GitHub Copilot Agent Skills スイートを作りました。

⚠️ 免責事項: spread1000-builder は筆者が個人で開発したオープンソースソフトウェア(MIT ライセンス)であり、Microsoft 社、文部科学省、その他いかなる組織の製品・サービスでもありません。Azure 等のサービス名が登場しますが、それらの採用を推奨・保証するものではなく、申請内容の最終判断は必ず応募者自身が行ってください。

コンセプト

「AI for Science の申請を、AI for Science で攻略する」

SPReAD が求める「AIの利活用」を、申請プロセスそのものにも適用する。これが spread1000-builder のコンセプトです。GitHub Copilot Agent Skills として動作する12のサブスキルが、研究計画の策定からコスト算出、申請書の下書き、さらには採択後のインフラ構築まで一貫して支援します。

インストール

npm install @nahisaho/spread1000-builder
npm @nahisaho/spread1000-builder init

これだけで、.github/skills/ 配下に12のスキルと、エージェント定義が自動配置されます。

12のサブスキルが支援するワークフロー

Phase スキル やること
0 spread1000-context-collector 1問1答で研究の文脈を収集し、メタプロンプトを生成
1 spread1000-research-planner Web リサーチを通じた AI 活用研究計画の策定
2 spread1000-azure-architect 研究プランに最適な Azure アーキテクチャを設計
2b spread1000-diagram-generator draw.io MCP で Azure 構成図を自動生成
3 spread1000-cost-estimator Azure 構成に基づくコスト算出と算定根拠の記述
4 spread1000-proposal-writer SPReAD 申請書の作成支援
5 spread1000-final-reviewer 6つの審査観点でスコアリング・提出可否判定
5b spread1000-submission-guide AIインタビュー・e-Rad提出・応募資格の確認
6 spread1000-iac-deployer Bicep テンプレート生成と CI/CD パイプライン構築
7 spread1000-azure-deployer Azure デプロイ実行・OIDC設定・デプロイ後検証
7b spread1000-experiment-guide 実験手順書(環境構築・学習・推論・再現性管理)
8 spread1000-post-award 採択後の交付申請・中間報告・最終報告・予算変更

使い方のイメージ

GitHub Copilot のチャットで、こう話しかけます。

@research-advisor 私は考古学の研究者です。古文書の解読にAIを使いたいと
考えています。SPReAD への応募を支援してください。

すると、エージェントがまず 10要素チェックリスト で情報の充足度を判定します。

1. FIELD        - ✅ 考古学・古文書解読(明示されている)
2. PURPOSE      - △ AIを古文書解読に使いたい(方向性は分かる)
3. CHALLENGE    - ❌ 具体的な課題は不明
4. DATA         - ❌ データの種類・規模・形式は不明
5. COMPUTE      - ❌ 計算環境の情報なし
6. TRACK_RECORD - ❌ 研究業績の情報なし
7. BUDGET       - ❌ 予算の情報なし
8. KNOW_HOW     - ❌ ノウハウ共有の意向なし
9. APPLICANT    - △ 考古学の研究者(所属・職位は不明)
10. EXISTING_AI - ❌ AI経験の詳細が不明

不足している項目を 1問1答 で埋めていきます。最初の質問はこんな感じです。

質問 1/5 — AI活用の目的

この研究でAIを使って、古文書解読のどのような側面を達成・改善したいですか?

❯ 1. 損傷・劣化した古文書の文字を画像認識で復元したい
  2. くずし字の自動翻刻(テキスト化)を実現したい
  3. 未解読文字体系の解読パターンをAIで発見したい
  4. 大量の古文書コーパスから歴史的事象の関連性を自動抽出したい
  5. Other (type your answer)

選択式で答えるだけで、エージェントが研究の文脈を理解し、次のステップへ進みます。

  1. コンテキスト収集: 上記のような1問1答で研究の全体像を把握
  2. 研究プラン策定: Web リサーチを行い、古文書OCR × LLM の先行研究を調査
  3. Azure構成設計: Azure AI Document Intelligence + GPT-4o の構成を提案
  4. コスト算出: 「古文書1000ページ × OCR API × GPT-4o推論」の費用を算定根拠付きで算出
  5. 申請書作成: 研究計画調書の各項目(研究目的、研究方法、AI利活用の妥当性、達成目標...)を下書き

なぜ Azure なのか

SPReAD の経費区分では、クラウドGPU利用料やAPI費用が「その他」として計上可能です。spread1000-builder は Azure を前提に設計しました。理由は以下の通りです。

  • Azure AI Foundry で GPT-4o / Phi-4 等の基盤モデルがすぐに利用可能
  • Azure Machine Learning で GPU クラスタの従量課金ができ、使った分だけの計上が明確
  • Bicep (IaC) でインフラをコード管理でき、研究の再現性を担保できる(審査でもプラスになるはず)
  • GitHub Copilot との親和性が高く、エージェントとの連携がスムーズ

「Azure って何?」という研究者でも、エージェントが Bicep テンプレートを生成し、デプロイまで伴走します。ただし正直に言うと、Azure 上でのシステム構築経験がないユーザーにとっては、エージェントの支援があっても難しい場面が出てくると思います。サブスクリプションの作成、リソースプロバイダーの登録、クォータ申請など、Azure 固有の概念は事前にある程度キャッチアップしておくことをお勧めします。SPReAD の伴走支援や、身近な情報系の研究者に相談するのも有効な手段です。

⚠️ spread1000-builder が生成する Bicep テンプレートは、Azure 上への正常なデプロイを保証するものではありません。研究内容やリージョン、クォータ等の条件によってはデプロイに失敗する場合があります。うまく構築できなかった場合は、エラー内容を確認のうえ応募者自身で修正する必要があります。あくまで「叩き台」としてご利用ください。

算定根拠の自動生成 ―― 申請書の山場を攻略する

SPReAD の研究計画調書4枚目では、API費用と計算資源費用の算定根拠を求められます。正直に言って、ここが申請書の最大の山場だと思いました。研究内容に応じて、具体的な数字を根拠付きで書かなければなりません。

■処理対象: 古文書画像(くずし字)
■金額: 150千円
■算定根拠: 
  対象データ: 1,000ページ分の古文書スキャン画像(平均 2,000×3,000px)
  処理フロー: Azure AI Document Intelligence → GPT-4o による解読
  Document Intelligence: 1,000ページ × @15円/ページ = 15,000円
  GPT-4o: 1ページあたり平均入力2,000トークン + 出力500トークン
         × 1,000ページ × 再実行率1.3 = 3,250,000トークン
         入力: 2,600,000 × $2.50/1Mトークン ≒ 975円
         出力: 650,000 × $10.00/1Mトークン ≒ 975円
  合計: 約17,000円(バッファ含め150千円を計上)

こういった見積もりを、spread1000-cost-estimator が研究内容に応じて自動生成します。GPU種類の選定理由も含めて。もちろん最終的な確認と調整は応募者自身が行いますが、「ゼロから書く」のと「叩き台がある」のとでは天地の差です。

💡 考古学の先生が「NVIDIA A100 80GBを選定した理由」をゼロから書くのは大変です。でも、AIエージェントが下書きした根拠を自分の研究に合わせて修正するなら、ぐっとハードルが下がります。これが spread1000-builder の狙いです。

CoreClaw ―― 採択後の研究実行を支えるもう一つの武器

spread1000-builder は申請プロセスに特化していますが、採択された後の研究実行も同じくらい重要です。そこで、より汎用的な AI アシスタント環境として CoreClaw も公開しています。こちらも筆者が個人で開発したオープンソース(MIT ライセンス)で、Microsoft 社やその他の組織の製品・サービスではありません。

CoreClaw とは

CoreClaw は、ChatGPT ライクな Web UI と Agent Skills を組み合わせた AI アシスタント環境です。GitHub Copilot CLI をバックエンドに、Docker コンテナ内でエージェントタスクを実行するアーキテクチャになっています。

┌─────────────────────────────┐
│  Browser (SPA)              │  ← ChatGPT 風の 2ペイン UI
│  http://localhost:3000      │
└────────────┬────────────────┘
             │ HTTP/WS
┌────────────▼────────────────┐
│  web-server.ts              │  ← API + WebSocket ストリーミング
│  container-runner.ts        │  ← Docker コンテナの起動・管理
│  credential-proxy.ts        │  ← GitHub Token の安全な注入
└────────────┬────────────────┘
             │ Docker
┌────────────▼────────────────┐
│  coreclaw-agent:latest      │  ← Copilot CLI + Python + CJK対応
│  └── copilot -p <prompt>    │
└─────────────────────────────┘

なぜ CoreClaw が SPReAD に効くのか

特徴 SPReAD での活用場面
Docker 隔離実行 研究コードを安全なサンドボックスで試行錯誤できる
8つのスキルパッケージ コンサルタント系5種 + 教育者 + サイエンティスト(195サブスキル) + 汎用アシスタント
MCP サポート ToolUniverse(1000+ 科学ツール)、Deep Research 等の外部サーバと連携可能
GitHub Sync 実験結果を GitHub リポジトリに Push/Pull、再現性を担保
WebSocket ストリーミング 長時間の分析タスクもリアルタイムで進捗確認

特に Scientist スキル(195サブスキル) は、ライフサイエンス・化学・物理学等の研究タスクに特化しており、SPReAD が想定する「あらゆる分野」の研究者にとって強力な支援ツールになります。

spread1000-builder との使い分け

spread1000-builder CoreClaw
動作環境 VS Code + GitHub Copilot ブラウザ(Web UI)
フォーカス SPReAD 申請プロセス全体 研究実施・実験・分析
実行環境 ローカル Docker コンテナ(隔離)
スキル 12スキル(申請特化) 8パッケージ(195+サブスキル)
MCP連携 draw.io MCP ToolUniverse、Deep Research 等

申請準備は spread1000-builder、採択後の研究実行は CoreClaw という棲み分けを想定しています。もちろん、CoreClaw を申請段階から使って研究計画の壁打ちや先行研究の調査に活用するのも効果的です。

セットアップ

git clone https://github.com/nahisaho/coreclaw.git
cd coreclaw
bash setup.sh   # npm install + .env + build + Docker image
bash start.sh   # サーバ起動 → http://localhost:3000

前提条件は Node.js 22+、Docker、GitHub Copilot ライセンスです。詳しい手順は「はじめての CoreClaw」をご覧ください。

簡単な使い方

ブラウザで http://localhost:3000 を開くと、ChatGPT 風の 2ペイン UI が表示されます。

  1. チャットグループを作成 — サイドバーの「+ New Chat Group」をクリック
  2. スキルを選択 — 研究内容に合わせて scientist(科学)や consultant(コンサルティング)等を割り当て
  3. メッセージを送信 — テキストボックスにプロンプトを入力して送信
  4. リアルタイム応答 — WebSocket 経由でストリーミング表示。長時間タスクも進捗が見える
  5. 成果物を確認 — エージェントが生成したファイル(レポート、グラフ、コード等)をダウンロード

たとえば、scientist スキルを割り当てたグループで次のように話しかけます。

EGFR変異を持つ非小細胞肺がんの薬剤耐性メカニズムについて調査してください。
最新の文献と構造データに基づいて分析をお願いします。

エージェントが Docker コンテナ内で安全にタスクを実行し、MCP 連携で ToolUniverse の科学ツール群(文献検索、タンパク質解析等)を自動で呼び出しながら分析を進めます。

💡 spread1000-builder で申請書を書き、CoreClaw で研究を実行する。申請から研究まで、AIエージェントが伴走する体制を、この2つのツールで構築できます。SPReAD が掲げる「伴走支援」を、自分でも実現してしまおうという試みです。

まとめ

ポイント 内容
SPReAD1000 あらゆる分野の研究者に AI for Science への挑戦を促す、革新的な制度設計
採択のカギ GPU選定・コスト算定根拠・AI活用計画の具体性をどう書くか
筆者の戦略 AIエージェントを「もう一人の自分」として活用する
作ったツール spread1000-builder(申請支援)+ CoreClaw(研究実行支援)

SPReAD は「AI for Science の裾野を広げる」という大きなビジョンを持った事業です。ランダム採択の導入、AIインタビュー、コミュニティによる伴走支援など、従来の競争的研究費にはない先進的な仕組みが詰まっています。

筆者は、この制度に本気で挑むために「申請プロセスそのものにAIを活用する」というアプローチを取りました。SPReAD が「AIを使って研究を変えよう」と呼びかけているなら、その呼びかけに全力で応えたい。申請書の段階から AI と一緒に走り出すのが、筆者なりの答えです。

もし同じように SPReAD への応募を検討している方がいれば、ぜひツールを試してみてください。一緒に Challenge を楽しみましょう。

「AI を研究に使え」と言われたので、申請にも研究にも全力で AI を使ってみました。

参考資料

1
1
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?