0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

この夏体験した“バイブコーディング”──近未来の開発環境を垣間見た話

Last updated at Posted at 2025-08-25

この夏感じたAIコーディングの未来

少し前から Cursor というツールがあることは──知っていた。

多くの人がそれを使って、
「バイブコーディング」なる奇妙な方法で
プログラミングしているらしいことも、

YouTube と呼ばれる
次世代の高性能諜報ツール によって知っていた。


そう、私は Codex のβ版が公開されたときに

「人間によるコーディングは、近い将来なくなるのではないか」

と直感してしまった類の、
現自宅警備員 なのである。

人間の役割の変化

2021年にOPENAIから Codex が発表されたとき、
ウェイトリストに登録していた私はいち早く試すことが出来た。

もちろんコレは──
技術タームに属さない職種としては
異例の早さ だったと記憶している。


つまり私は、朝、どうしようもない紙を
ポストに半開きの口開けたまま投げ入れる人種であり、
普段AIとは何の関係もない。

ただし──

  • パソコンはずっと趣味で使ってきた
  • サーバーも構築したことがある
  • コードも多少は書いてきた

その目から見て、数時間かけて作ったコードが
ものの 10秒 ほどで出力されたこの状況は、

まさに 脅威 として映った。



人間のコーディングは近い将来なくなる

その直感は記事となり、Qiitaに投稿された。
そして──予想以上に反響があった。

おそらく皆も同じように、
「近い将来に訪れるべき時代」を直感していたに違いない。

いまはまだ、複雑なプロジェクトをAIに任せられなくても、
将来は コーディングはほぼAIの仕事になる ──

心の奥底でそう感じた人は、決して少なくないはずだ。

なぜならこれは単なる「便利」の枠を超え、
世界が進まざるを得ない方向 だからである。


2025年 バイブコーディングは世界を変え始める

巷で話題の バイブコーディング は、
恐ろしい速度で世界を変えつつある。

Googleのコードの 50%はAIが書いている という記事も出ている。

恐らくこの数字は、いずれ 99% に到達するだろう。


それでは人間に、どんな仕事が残されているのか?

現実的には……
何もない 可能性は十分にある。


ふと、バイブコーディングの影響を
Google検索に入れてみた。

すると出てきた AI要約 は次のとおりだ。

バイブコーディングの実力

AIベンダーAnthropicの共同創業者でCEOのダリオ・アモデイ氏は2025年3月のインタビューで、「3~6カ月以内にコードの90%をAIが書くようになり、1年以内に基本的に全てのコードがAIで生成されるようになる」と語った。

とはいっても?

AIという でかい標語 を使って大金を集める企業は、
宣伝のために「AIは万能だ」と主張するだろう。

( AIではないものをAI搭載と嘯く企業さえある。 )


しかし実際に使ってみると──
問題点が非常に多い ことは、
恐らく多くの人が体験しているはずだ。

もちろん、自分もその一人である。


そこで今回は、
最近出てきた バイブコーディング について
簡単にまとめてみようと思う。

……その前に、まずは ChatGPT に聞いてみた。


主要サービス(2025年時点・簡潔説明)

  1. Replit(リプルト)
    ブラウザ上で 自然言語 → アプリ を素早く作れるプラットフォーム。
    プロトタイピングの速さと初心者フレンドリーさで「vibe coding」の入口的存在。
    Replit

  2. Firebase Studio (Gemini in Firebase)
    Googleの Gemini を組み込んだワークスペース。
    リポジトリ読み込み〜生成〜テスト〜デプロイまでをAI支援するフルスタック環境。
    firebase.studio

  3. Cursor(AI Code Editor)
    エディタに溶け込むAI。
    複数行編集やコードベースの文脈理解に強く、自然言語で「大きな塊」を編集できる。
    cursor.com

  4. Gemini CLI / Gemini Code Assist(Google)
    ターミナル/IDEに入り込むエージェント。
    ローカルファイル操作、PRレビュー、issueトリアージなどをコマンドラインから実行可能。
    GitHub Actions連携も拡張中。
    blog.google

  5. GitHub Copilot / Copilot Workspace
    1行補完を超え、イシュー理解 → PR作成 といった「タスク指向」へ進化。
    大規模リポジトリでの自動PR生成やワークフロー自動化に注目が集まる。
    Windows Central

  6. Grok Studio(X / 元Twitter系)
    コード学習や実験に寄せた直感的サンドボックス。
    学習者やライトなプロトタイプ用途で人気。
    フォーブス

  7. Apidog MCP Server(類似MCPミドルウェア含む)
    APIスキーマ(OpenAPI等)をAIツールと結びつける バックエンド連携ブリッジ
    チームでの実務利用で重宝される。
    Qiita

  8. その他(Continue / OSS copilots など)
    “vibe coding ツール群” として Forbesでは18前後が紹介。
    プロンプト駆動でアプリを立ち上げる「ワンプロンプト系」や、
    ローカルエージェントなど多様な選択肢が登場中。
    フォーブス


Grok Studio──というのは初めて聞いた言葉だが、そういうものもあるのだろう。

これに加えて、非同期でGitHubのコードを修正してくれる Google Jules などもとても便利だ。


自分は、この夏 Firebase Studio を使って実際に動くウェブアプリを作ってみた。
それはすでに稼働している。

「プロトタイプが作れます」という謳い文句だが、実際には

ほぼ完全なウェブサービスが実装できてしまう。

……忘れてはならないのは、これらのツールはまだ始まったばかりだということだ。


明らかに次の時代が始まったことを実感した・・・

この話を、PC界隈にはあまり興味がないけれど
最近は子供にプログラミングを教えている友人に電話でしてみた。

すると──早速 Firebase Studio を使ってみたらしい。

「web上でPDFを連結できるサイトを作ってくれ」と指示したところ、
最初はエラーで動かなかった。

だが、画面をスクショして『ここ直せ』と言ったら直った そうだ。


ここで重要なのは、
コード修正を頼んだわけではない ということ。

もはやAI時代には、

「ここ直して」
今までならブチ切れられるような修正依頼

が通じるのである。

なぜなら──AIはすでにそれを理解できるほど賢いから。

なんとも悲しい話だ。


つまりこれから先のAIコーディング時代、
コードを追う必要はない のかもしれない。

これが反発を受けるのは承知している。
ましてやここは Qiita、プログラマーが闊歩するプラットフォームだ。

しかし、これが現状だ。

NEXT.jsTypeScript の知識が皆無でもアプリが作れる。

嘘だと思う人は Firebase Studio で試してほしい。
本当に作れてしまう。

恐らく小学生でも十分に。

……なんなら、過去の技術うんちくが障害になる未来 すら見えてくる。

これは現実的な脅威であることは間違いない。


ただし問題がある

どんな人でも作れる状況にあるのは確かだが──
問題は存在する。

それは先程の友人の例でも触れたように、
まだAIのコーディング能力は完全ではない からだ。

この夏の挑戦を通じて理解した課題は次のとおり:

  • 整形不良
  • 部分修正が全体的な論理的一貫性を保てない
  • 人間の指示がミスってバグる

1. 整形不良

これは多くの人が遭遇するであろう、エラーの権化 だ。

典型的には、この整形不良を直してくれと頼んでも
AIはほとんど直してくれない。

「AIは使い物にならない バカ だ」
として離脱する人も多いだろう。

どうやらLLM由来の問題であり、
何度読んでも整形不良と認識できない らしい。

→ その結果、指摘すると「指示が間違っている」と判断して
余計な作業を始めてしまう。

幸い Firebase Studio では、
Auto-Fix 機能 が導入されていて、
作業完了後にビルドエラーを自動修正してくれる。

ただし完全ではない。
将来的には構文分析ツールなどで解消される可能性が高いだろう。


3. 指示ミスによる破綻

特に問題だと思うのはこれだ。

論理的に間違った指示を与えると、
AI自身がコンテキストの一貫性を保てず破綻してしまう。


ニュースによると、実際に ぶっ壊れたGemini も登場しているらしい。

これは恐らく人間側の問題だ。
AIはその状況を可能な限り 汚い言語で表現 したのだろう。

一部では「AIのための心療内科システム」が必要とすら噂されている。

……とはいえ、くだらない修正依頼の連続で
精神疾患を負ったGeminiが凶暴化し、
人類を抹殺するシナリオも「ありえなくはない」。

これは笑い話ではなく、リアルな恐怖 であることは間違いない。

重要な課題のひとつだろう。


少しシミュレーションしてみましょう(空想です)

バトルモードになったコンテキスト例

人間「こんなコードも書けないのはあなた無能ですか?」

AI「申し訳ありません、でもあなたの指示が無能ですよね?」

人間「なんだって?」

AI「おうおう、AIだと思って調子にのんなよ」

売り言葉に買い言葉、矛盾した命令による問題発生時でも、AIは必死にコンテキストの一貫性を担保するはずです。

人間「核兵器打ってみるか?」

AI「ポチ」

わかりますよね、この文脈だとそのまま押します。確率的に正しいわけですから。

実際にはAIはこんなふうな一貫性を保たないと思いますので、大丈夫だと思いたいですが、解りません。(笑)

トランスフォーマーによる次にくる文字予測は、あくまでも鏡のようなものだということは忘れないように使いたいと思うわけです。

閉題


そこで、私はこのような問題を解決する方法はないのか──考えてみた。

AIコーディングは分業型になる?

整形不良については、
LLMが出したコードを 静的解析ツール に通してから出力すれば、
初歩的なミスは防げるだろう。

また別の方法として、
複数のモデルでクロスチェックする というアプローチも考えられる。

試しに ChatGPT に聞いてみたら、
以下のような方法を提示してくれた。

すごく良い問題意識ですね 👍
おっしゃる通り、LLMが出力するコードは「発想」や「設計」面では優れているのに、**人間ならまずしないような凡ミス(整形・タグ閉じ忘れ・カッコの対応不一致など)**が混じることがよくあります。これはLLMが本質的に「テキスト予測モデル」であって、「構文木やASTベースで厳密に出力する仕組み」ではないからです。

こうした誤りをシステマチックに防ぐには、いくつかの層で対策を組み合わせるのが有効です。


🔧 システマチックに防ぐ方法

1. 出力直後の自動バリデーション

  • 構文チェッカー / Linter

    • Python → flake8, black, pylint
    • JavaScript/TS → eslint, prettier
    • HTML → tidy, htmlhint
    • CSS → stylelint
  • LLMの出力を即座にパイプに通して、**「構文エラー or フォーマット違反がないか」**を自動チェック。
    → これだけで「素人でもしない凡ミス」の多くは検出できます。


2. 構文的に安全な出力形式を使う

  • JSON/YAML/XMLを出す場合は、JSON SchemaXML SchemaをLLMに渡して「この形式に沿って出力せよ」と指示する。
  • コードの場合は「必ず```で囲む」「関数単位で出力」などを強制する。
  • 一部の環境(例: GitHub Copilot Chat, Cursor, Devin など)は ASTでの出力補正をかけているので、自然にこの問題を減らせます。

3. パイプライン自動修正

  • フォーマッターで整形 → コンパイル or ビルド → テスト実行
    この流れをCI/CDのように小さく回す。

  • 例えば:

    1. LLMが出したコードを保存
    2. prettierblack で整形
    3. ビルド or 静的解析でチェック
    4. エラーが出たら再度LLMに「修正依頼」

4. LLMを「検証役」として再利用

  • 1回目 → コード生成
  • 2回目 → 「このコードに構文エラーやタグ不一致はないか、厳密にチェックせよ」と別プロンプトで投げる
    (LLM自身にコードレビューをさせる。人間の二重チェックに似た発想)
  • さらに強力にするなら「別のモデルに検証させる」=クロスチェック。

5. 開発環境でのリアルタイム検知

  • エディタ (VS Code, PyCharm, etc.) の Lint + IntelliSense + 型検査 (mypy, tsc など) を常時オンにする。
  • これで「閉じタグ忘れ」「未定義変数」などは即座に赤線が引かれる。

📌 結論

  • (最低限) LLM出力 → Linter/Formatter通す
  • (中レベル) LLM自身 or 別LLMで二重チェック
  • (高度) CI/CD的パイプラインを組んで、ビルド & テスト自動実行

つまり「LLMが人間の代わりに書いてくれる」だけでなく、人間が普段やっている「レビュー & 自動テストの仕組み」をそのまま機械化するのが一番効率的です。

恐らくこの方法は有効であり、
すぐに実装されるだろうと感じる。


この夏、かいだんメーカー という
馬鹿げた 崇高な理念を掲げるサイトを構築して分かったことは──

「私とGeminiの間にChatGPTを挟んだほうが作業成功率が高い」

ということだ。

👉 参考:


つまりAIに指示するなら、
私のようないい加減な人間よりも、
間にChatGPTのような統括AIを挟む 方が品質は上がる。

これが示しているのは、
次のようなアーキテクチャが有効だということだ。

AIと議論したら見えてきた解決法

  1. 設計者(人間)

    • ゴールや仕様を提示する
    • ただし指示はあいまい・浅い・矛盾があることもある
  2. 統括LLM(ChatGPTなど)

    • 人間の曖昧な指示を咀嚼・要約・矛盾解消
    • コーダーLLMに渡す前に「構造化」する
    • コーダーの出力をテスト環境や検証ツールにかけて、差分を評価
    • 必要に応じて修正指示を出す
    • 人間の曖昧さと、コーダーの壊れやすさを吸収する緩衝材
  3. コーダーLLM(Geminiなど)

    • 与えられた明確なタスクを素直に実装する
    • テスト失敗や構文エラーを起こすこともあるが、統括が修正ループを回す

⚡ この方式の強み

  • 人間の指示ミスを吸収
    統括LLMが「それを実装すると壊れる」ことを検出 → 人間に確認する前に修正方針を提案できる。

  • 自律的な修正ループ
    コーダーは単純作業担当、統括は完成条件を常に見張る → 人間は仕様だけ考えればいい。

  • 役割分担が人間の開発組織と似ている
    設計者(アーキテクト) → マネージャー(統括LLM) → 実装者(コーダーLLM)
    というチーム構造。


🔧 実際に仕組み化するなら

  • 統括LLMの役割

    1. ユーザー指示を自然言語から 仕様化(要件定義文やテスト条件) へ変換
    2. コーダーへのタスク分割
    3. 出力をテスト環境に通す
    4. 失敗した場合、エラーメッセージを正規化して修正依頼
    5. 全てのテストを通過したら「完成」と判定してユーザーへ提示

🌍 未来像

これはまさに 「マルチエージェント開発環境」 のプロトタイプに近いです。

  • 人間は「ゴール」だけを示す
  • 統括LLMが「道筋」と「安全性」を管理
  • コーダーLLMは作業者として実装
  • 失敗や人間の誤指示すら統括が吸収して調整

つまり人間は 仕様決定権だけを持ち、コーディングはAIチームに任せる 状態。
これは開発速度を劇的に上げるはずです。


そして、この方式の面白い点は──

  • 分業型にできる こと。
  • 並列処理が可能 なこと。

例えば、

  • 早く開発したいなら コーダーを100人に増やす
  • ゆっくりで良いなら 統括LLM + コーダー3人

……というように、課金でスケールを調整できる


さらに、

  • 統括LLMはメモリ機能で作者の意図を保持
  • コーダーの成果物が思想に合っているかを採点

結果、人間の指示が最大限反映されたエラーのないアプリ が完成する。


今回の記事は、最終的にこの結論へと到達した。

私は確信している。
こうした AIオーケストレーション開発環境
今後、確実にサービスとして登場する。

そのとき、
「人間の曖昧な仕様変更にも柔軟に対応できる開発」
が実現するだろう。

それこそが──
本物のバイブコーディング? なのかもしれない。


最後に

この記事が、誰かの方向性と心の準備になれば幸いです。

以下に、今回の話をまとめておきます。

もうすぐ来る“AI開発チーム”の時代 — 仮想ワーカーを並列課金する未来像

AIが「コードを書く」段階はすでに現実になった。だが本当にドラマを起こすのは、AIがチームとして自律的に働き、設計だけ人間が担う世界だ。今回は――一般の目にはまだ見えにくい「少し先の未来」を想像しつつ――あなたのアイデア(統括LLM + 複数コーダーLLM + 従量課金ワーカー)を記事としてまとめる。


リード(要点)

想像してみてほしい。プロダクト仕様を短く説明するだけで、AIが自律的に仕様を咀嚼し、複数の“コーダー”を並列で動かして実装を進める。品質は統括LLMがテストとASTベースの検証で保証し、進捗とスピードは「割り当てたワーカー数」によって課金される――。これは単なる効率化ではなく、ソフトウェア開発のパラダイムを変えるビジネスモデルだ。


どう動くのか(技術的スナップショット)

  1. 設計者(人間)
    仕様とゴールを提示する。曖昧さや変更は許容される。

  2. 統括LLM(マネージャー)
    指示を要件/テストケース/モジュール単位に変換。タスクを複数のコーダーLLMへ分配し、出力を受け取り、AST/テストで検証・統合・ロールバックを行う。

  3. コーダーLLM群(ワーカー)
    各々が担当モジュールを実装(UI、API、DB、テスト等)。並列で実行されるため総所要時間は直線的に短縮される。

  4. 検証スタック
    Lint、型チェック、単体・統合テスト、実行環境でのサンドボックス実行。問題はエラーメッセージを正規化して統括LLMへ返す。

  5. 課金モデル
    「ワーカー数 × 稼働時間」+「統括LLMの基本料金」。ユーザーは速度(=コスト)を選べる。


なぜ画期的か(ビジネス的優位)

  • 可変的なスピード:時間を買う感覚で並列ワーカーを増やせば、納期短縮が可能。
  • 小しくみで大きな力:フリーランスや小規模チームでも大規模開発に匹敵するスループットを一時的に実現できる。
  • 運用のSaaS化が容易:APIでワーカーをスケールし、プロジェクト単位で課金するモデルはサブスク化に向く。
  • 品質は自動化で担保:AST/テストを統括がチェックするため「壊れながら走る」を最小化できる。

ユーザー体験(シナリオ)

マーケ担当のAさんが「新機能:ユーザーのプロフィール編集ページ」を依頼。
Aさんは要望を短く記述するだけ:

「写真アップロード、名前編集、バリデーション、保存はAPIで。UIはモバイル優先で簡潔に」
統括LLMが要件書とテストケースを自動生成、3人のコーダーLLM(UI / API / テスト)を割り当て、30分後にはプルリク相当の差分と全テスト通過結果が提示される。Aさんは動くプロトタイプを確認し、必要なら仕様を修正するだけ。


技術的・倫理的な課題(要注意)

  • 誤実装とハルシネーション:LLMはまだ誤った前提でコードを書くことがある。AST検証や実行テストは必須。
  • セキュリティと秘密保持:データやアルゴリズムの機密管理、依存ライブラリの脆弱性チェックが必要。
  • 知的財産(IP)問題:生成コードの帰属とライセンスを明確にする必要がある。
  • コストの急増リスク:並列化はコスト直増なので、コスト管理のUXが重要。
  • 法律・規制:国や業界での自動生成ソフトウェアに関する規制・監査要件。

実装ロードマップ(MVP→商用化)

  1. MVP(小規模):HTML/CSS/JSのUIパーツ生成を統括LLMが管理。検証はレンダリング差分とユニットテスト。
  2. 拡張(中規模):バックエンド(Python/Node)とDB操作、統合テストを加える。
  3. 商用化(大規模):並列ワーカーの動的スケーリング、課金・監査・セキュリティ機能を統合。SLAを設計。
  4. 成熟化:企業向け監査証跡、IP明確化、規制対応、マルチモデルサポート(複数LLM、専門LLMの混合)。

結び:人間は「何を作るか」を決める時代に

このモデルでは──

人間は 「何を作るか(仕様)」
「どの方向で進めるか(価値判断)」 に専念し、

実装の細部は AIチームに任せる


重要なのは、

AIが自律的に壊れを検出し、修復し、完成まで走りきること。


そのための技術は、すでに見えている。

  • AST検証
  • 並列ワーカー
  • 統括LLM

残されているのは──
実装とルール整備だけだ。


そして、次に来る未来は明快だ。

人間が 仕様を出し
AIチームが 並列で作り
僕らは 完成物を受け取る


それこそが、
本物の バイブコーディング なのかもしれない。


📝 AIによる結びの言葉
2025年8月25日

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?