はじめに
ボイジャー1号は、2026年11月15日、人類史上初めて地球から1光日、光の進む早さで1日の距離に到達するそうです。1光日は約259億キロメートル、地球約64万7500周に相当するとのこと。光は1秒間に地球を7周半するということなので、すごい距離なのは間違いないです。
本稿は「ボイジャー1号はAIなのか、従来型のプログラムなのか」を一次情報で確認し、さらにもし現代のAIを搭載したら何が変わるかを技術・運用・事業の観点で検討します。
結論を先に述べると、ボイジャー1号はAIではなく、割り込み駆動の組込みソフトウェアで動作しており、地上からの計画コマンドと限定的な自律保護機能で運用されています。(NASA Science)
1. ボイジャー1号の計算機とソフトウェアの実像
-
搭載計算機は計3系統×各2台の冗長構成(計6台)。
CCS(Computer Command System)、FDS(Flight Data System)、AACS(Attitude and Articulation Control System)で構成され、総メモリは約32Kワード(約64KB)。いずれもアセンブリ言語で記述された割り込み駆動のソフトウェアです。(NASA Science)
-
各計算機の役割
CCS:地上からのコマンド実行、故障保護ロジック、他サブシステム指令の中枢。(NASA Science)
FDS:観測データの収集・整形、機器制御、機上記録・送信。(NASA Science)
AACS:姿勢制御・機器指向の制御。(NASA Science)
-
通信・データ率の制約
上りはS帯で16bit/s、下りは通常160bit/s、高レート再生でも1.4kbps級。カメラ操作はFDS内のパラメータ表で制御され、現在は省電力のため停止済みです。(NASA Science)
-
最近の運用状況(例)
電力低下に伴う機器停止(CRSを2025/02に停止、LECPを2025/03にVoyager2で停止など)が続きます。(NASA Science)
2023末〜2024にかけては一部メモリ破損が発生し、データ不能に陥った事象を機上ソフト改修で復旧しました。(NASA Science)
以上から、ボイジャー1号の「自律性」はルールベースの故障保護・時刻駆動シーケンス中心であり、学習や推論を行うAIではないことが明確です。(NASA Science)
2. 「AIかプログラムか」を定義で仕分ける
-
本稿の作業定義
AI:統計的学習に基づくモデル(例:ML/DL)で、運用中に推論を行い、可能なら学習・適応を伴うもの。
プログラム:事前に設計された決定的アルゴリズムと状態機械で、学習を伴わないもの。 -
ボイジャー1号はどちらか
前節のとおり、割り込み駆動のアセンブリ、故障保護アルゴリズム、時刻・イベント駆動の手順で運用されるため、プログラムに分類されます(AIではない)。(NASA Science) -
よくある誤解の分解
「自律で動いている=AI」ではありません。宇宙機の自律は安全性中心のルールベース実装が基本であり、AACSのような制御計算でも学習ベースとは限りません。(NASA Science)
3. 仮に「現代AI」を搭載したらどうなるか
3.1 ねらい(具体)
-
データ効率化:プラズマ波形等からイベント検出・要約・圧縮を機上で行い、160bit/s級の帯域でも有益度/ビットを最大化
-
異常検知:テレメトリの異常前兆検出で地上側のトリアージを高速化
-
姿勢・熱・電力の最適化:学習モデルで消費電力や熱余裕をリアルタイム予測し、計画を調整
3.2 制約(抽象)
-
電力:RTGは年あたり数W低下。総電力は限界的で、新規計算負荷は厳しい。(NASA Science)
-
放射線・信頼性:放射線耐性(rad-hard)と長期検証が必須
-
通信遅延:片道数十時間級の光遅延下での安全性担保(地上の即応不可)
-
継続性:検証容易性・説明可能性を満たす必要
3.3 実装像(具体)
-
超省電力AI推論:量子化・蒸留済みの小型モデル(例:1D-CNN/AE)でイベント検出だけを実行
-
ハイブリッド制御:AACSの決定論的制御は維持し、AIは助言系(スコアリング)に限定
-
データ要約:波形→特徴量+低レート要約を生成し、重要時のみ高密度送信
-
フェイルセーフ:AIの提案はCCSの保護ロジックで常時監査し、最小リスク状態へ確実移行する仕組みを前提化
3.4 事業・運用(抽象)
-
ROI:帯域制約下でも科学的価値/ビットが増えるなら採用余地
-
認証:宇宙機ソフトにおける安全証明・説明可能性の要件整理が鍵
-
組織:地上オペレーションとモデル維持管理(MLOps)の両立が必要
まとめると、AIは“主役”ではなく“補助輪”としての価値が高い設計になります。既存の決定論的制御を厳格に残しつつ、データ選別・異常検知・要約の周辺機能に限定するのが現実解です。
4. 仮説→根拠→再検証→示唆・次のアクション
-
仮説:現代AIを積極活用できるのはデータ要約・異常検知など非安全本体系に限られる
-
根拠:
計算資源・電力・帯域が厳しく、本体制御はアセンブリ+保護ロジックで構築されているため、置換は高リスク。(NASA Science)
通信は通常160bit/s級で、要約・イベント抽出が価値を生む。(NASA Science)
電力は年数W低下し続け、AI計算の増分電力が寿命を削る。(The Verge)
-
再検証(反証可能性):
超低電力・放射線耐性AIアクセラレータが実用化すれば、もう一段踏み込んだ機上推論が可能になる。
ただし宇宙機向けでは長期信頼性実証がボトルネック。
-
示唆・次のアクション:
非本体系でのPoC(波形イベント検出、要約圧縮)。
AI出力の監査仕様(しきい値・許容誤警報率・回復動作)をCCS保護ロジックと統合。
検証計画を安全目標から逆算し、説明可能性を設計要件化。
5. なぜ?(5 Whys)
- なぜ ボイジャー1号はAIではないのか → 学習・推論機能を持たず、割り込み駆動のアセンブリ+保護ロジックで動くから。(NASA Science)
- なぜ 学習や高度推論を積まなかったのか → 計算資源・電力・メモリが極小で、信頼性と決定論性が最優先だから。(NASA Science)
- なぜ 今のAIを入れても主役にできないのか → 電力の漸減と帯域の極小が根本制約で、安全証明のハードルが高いから。(The Verge)
- なぜ それでもAIが有効な場面があるのか → 要約・異常検知は価値/ビットと地上負荷を改善しやすく、非本体系でリスクが低いから。
- なぜ まず周辺機能から導入すべきなのか → 段階的検証が可能で、既存保護ロジックと併走しながら実証→拡張の道筋を描けるから。
おわりに
ボイジャー1号はAIではなく「よく設計された組込みソフトウェア」で半世紀近くを航行してきました。将来の深宇宙探査では、AIは主役ではなく参謀として、データ要約・異常検知・運用最適化を担い、決定論的な本体制御と厳格な保護ロジックを支える形が現実的です。そう考えると、人間が主役を張り、AIが参謀として携わることがこのパターンからも導き出されます。
AIを活用するには、限られた電力・帯域・放射線環境の制約下で、価値/ビットと安全性を最大化する設計こそが鍵になります。
参考(一次情報中心)
-
搭載計算機・メモリ・言語・役割(FAQ)(NASA Science)
-
通信・データ率・機器状態(Spacecraft)(NASA Science)
-
メモリ破損と復旧(公式ブログ)(NASA Science)
-
電力低下に伴う機器停止の動向(報道/概況)(The Verge)