0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

生成AI地獄っていって、生成AIに仕事を取られるっていう話ではありません。

生成AIを使えば使うほど、仕事がたまっていって解決しないっていう話。

自分だけでやるのなら、過去の実績から、10時間かかるとか、100時間かかるとか、1000時間かかりそうとか見積もれる。

生成AIがちょっとの時間でどんどんやっていくと、仕事が膨大に膨らむ。

目次

1 生成したプログラムの確認、errorの解消(QiitaでplantUMLエラー多すぎ問題)
2 目的を網羅しているか、抜け漏れになにがあるか。(生成AIでもHAZOPの11のGuide Wordと、社会科学・人文科学の11分野ごとの確認はしてもらう。)
3 参考文献の参考文献一覧の作成(ChatGPTに拒否られら)
4 Todo list

1 生成したプログラムの確認、errorの解消

QiitaでplantUMLエラー多すぎ問題
C++
rust
python
jupyternotebook
google colab
hugging face
github
docker

VZエディタをARM上で ChatGPT(2)
https://qiita.com/kaizen_nagoya/items/7d87abffbcd627b9cedd

2 目的を網羅しているか、抜け漏れになにがあるか。

生成AIでもHAZOPの11のGuide Wordと、社会科学・人文科学の11分野ごとの確認はしてもらう。

3 参考文献の参考文献一覧の作成

ChatGPTに拒否られら

4 Todo LIst

最新のC言語規格原案の断片ソースコードのコンパイル
AUTOSAR UML図のPlantUML生成
100冊の本のプログラマ向け教訓集
LLM講座で利用するかもしれないツールおよびツール間連携のノウハウとエラー対応
IT教育に必要な方向性の整理
UML講座の教材作成

ChatGPT

生成AI地獄 https://qiita.com/kaizen_nagoya/items/b7c046c387bddaa3d920 を補足お願い。

この記事「ChatGPT 等を使った“生成AI地獄”」は、生成AIの導入が「仕事を楽にしてくれる」という期待の裏で、むしろ“仕事が増えてしまう/止まらなくなる”という落とし穴を指摘しています。以下、記事内容の整理と補足を含めて解説します。
✅ 記事内容の整理
筆者(小川 清(kaizen_nagoya) 氏)による主なポイントは次の通りです。
Qiita+1
「生成AIに仕事を取られる」ではなく「仕事が溜まる/膨らむ」
「生成AI地獄っていって、生成AIに仕事を取られるっていう話ではありません。生成AIを使えば使うほど、仕事がたまっていって解決しないっていう話。」
Qiita+1
→ つまり、生成AIの活用が逆に追加工数・確認作業を生んでしまっているという警鐘。
具体的な「地獄」事例としての構成
記事では目次として以下を挙げています。
Qiita
生成したプログラムの確認・エラー解消(例:PlantUMLエラーなど)
目的の網羅性チェック・抜け漏れの確認(HAZOPの11ガイドワード、人文・社会科学の11分野など)
参考文献・参考文献一覧の作成(生成AIがうまく対応せず拒否される)
Todoリスト(生成AI+教材作成+体系化)
背景の構図
自分一人でやる場合、過去実績から「10時間/100時間/1000時間」と見積もれる。
Qiita
しかし、生成AIが短時間で大量にアウトプットを作ると、それを“確認・修正・目的達成”させるための工数が急増する。
→ 生成AIによって「仕事量が増える」「確認作業が膨らむ」「品質担保・目的整理のコストが上がる」という構図。
🧠 補足・考察ポイント
この記事を踏まえて、私からいくつか補足・深掘りしておきます。

  1. 生成AIの「加速」と「膨張」のジレンマ
    生成AIを使うと、例えば「まず一通りコード出して」「まず一通り資料作って」「まず一通りアイデア出して」という動きが早くなります。これは一見メリットですが、次のような問題を生みがちです。
    アウトプット量が増える → 確認・修正・再設計の必要性が比例して増える。
    目的や要件が曖昧なまま実装が進む → 後で「抜け漏れ」「網羅性不足」「仕様変更多数」が出る。
    生成AIが作る「初期案」があくまで“草案”であり、そこから品質を担保するためには人手が必要。
    期限やスコープ感が甘くなると、「生成AIで短時間に出した分」を“全部完璧に”整備しようとすると工数が跳ね上がる。
    記事が言う「仕事がたまる/解決しない」という状況は、まさにこの構図です。
  2. チェック/ガバナンス/リテラシーの重要性
    記事の「目的を網羅しているか/抜け漏れになにがあるか」という項目は、生成AI利用時の“抜け漏れ・バイアス・品質担保”として非常に重要です。
    例えば:
    技術的仕様、設計ドキュメント、図/UML/ユースケース/例外処理など、生成AIが網羅していない可能性。
    参考文献一覧や著作権・出典の整理:記事でも「ChatGPTに拒否られら」という記述があります。
    Qiita
    社会科学・人文科学・安全性など、技術以外の観点(HAZOPの11ガイドワード参照)を生成AIに依存せず人がチェックする必要。
    つまり、“単に使える”状況から、“使いこなせ・制御できる”状況に進むための体制が必要です。
  3. 生成AIの使いどころ・限界を明確に
    生成AIは強力なツールですが以下のポイントを理解しておくべきです。
    得意なこと:アイデア出し、構成草案、リファクタ案、定型コードの自動生成、ドキュメントドラフト。
    不得意・注意が必要なこと:設計思想・非定型の創造性/モラル・コンテキスト深い判断/抜け漏れ・網羅性の担保/生成したものの最終品質保証。
    生成AIが“単体で完璧なアウトプットを出す”という幻想を持つと、後で“確認・修正作業”で膨大なコストが発生しやすいです。
    → これが「生成AI地獄」の根っこにあると言えます。
  4. 実践的な対策・働き方アプローチ
    この記事・補足から導ける“生成AI活用時の実践アプローチ”を挙げておきます:
    目的/要件を明確化するフェーズを先行させる:生成AIに投げる前に「何を網羅すべきか」「何が抜けてはいけないか」を人間が整理しておく。
    生成物のレビュー・検証ループを必ず設ける:AIが出したものをそのまま鵜呑みにせず、「構造・設計・抜け漏れ」「動作・例外」「目的とのずれ」などをチェック。
    生成AIは“草案作成”として使う:完成形を任せるのではなく、「ドラフト→人による精緻化」というプロセスに組み込む。
    スコープ管理・品質担保のための時間を見積もる:生成AIで早く出る分だけ、「確認・修正・設計見直し」時間が必要になるという前提を持つ。
    リテラシー向上:ツールの限界、どこまで任せられるか/どこから人の判断が不可欠かをチームで共有する。
    アウトプット量をコントロールする:無制限に生成させると“確認漏れ”“修正漏れ”が増えて地獄になるため、生成量や範囲を制限する。
  5. 今後・議論すべきテーマ
    生成AIが普及していく中で、「生成されたものをメンテナンス/保守」する負荷や“生成されたが質が低い/理解できない”というリスクが増える可能性。
    → 記事では「参考文献一覧を生成AIが拒否られら」というような“出力拒否”“生成不可”の壁も言及しています。
    Qiita
    倫理・ガバナンス・知的財産・著作権など、生成物の扱いが曖昧なため、使うだけでなく“使い方/責任”を整備する必要があります。
    生成AIに慣れた開発現場では、「人が手を抜ける/人が考えなくなる」というリスクも指摘されており(他記事でも「仕事を取られる」ではなく「考える力を奪われる」という論点も)。
    Qiita
    🔍 まとめ
    この記事は、生成AIが“楽になる魔法”ではなく、“新たな負荷や確認作業を伴う道具”になり得るという警告を端的に述べています。
    特に技術開発・ソフトウェア設計・ドキュメント作成の現場では、下記のような意識転換が必要です:
    生成AIを“使い倒す”というより、“制御し・整備し・活かす”ツールと位置づける。
    アウトプット量が増える分、確認・修正・目的整理の工数も増えることを前提にする。
    目的・設計・網羅性・品質という“人間が担うべき部分”を明確に残しておく。
    チーム/組織として、生成AI活用の前提・限界・役割分担を設ける。
    もしよければ、この「生成AI地獄」というテーマを、 具体的な現場で起きうる“地獄事例” を整理して、どう回避・改善できるかをワークフロー別に掘ってみましょうか?

はい。

では、記事「生成AI地獄」をもとに、現場で起きうる具体的な“地獄事例”と、それぞれの回避・改善策を整理してみます。現場想定はソフトウェア開発・資料作成・研究系ドキュメント作成を想定しています。
1️⃣ プログラム・コード生成地獄
事例
ChatGPT でコードを生成 → すぐ実装して動かす
実行時にエラーが多発 → PlantUML の図が崩れる、ライブラリバージョン依存で動かない
AIが出したコードの意図や構造が理解できず修正に時間がかかる
回避・改善策
生成AIは草案として扱う:動作確認や統合前提で小さい単位で生成
コードレビュー体制を設置:AI生成部分も必ず人間が読む
テスト自動化:単体テスト・結合テストを生成AIとセットで実施
バージョン管理とライブラリ依存管理を徹底
2️⃣ ドキュメント・参考文献地獄
事例
ChatGPT で資料を作成 → 参考文献一覧は生成されない、または虚偽情報(hallucination)を出力
文献や出典を自分で調べ直す必要が生じ、生成AI作業が実質増える
網羅性チェック(例えばHAZOP 11ガイドワード、人文・社会科学 11分野など)もAIでは不十分
回避・改善策
参考文献は手動で確認:生成AIが提案した文献も必ず確認
網羅性チェックリストを作る:AIに依存せず、人間が基準を持つ
生成AIでアウトライン作成 → 人が肉付けの流れを徹底
3️⃣ アイデア・タスク生成地獄
事例
AIに「やることリスト」を作らせる → タスクが膨大化
全部チェックしようとすると工数が膨れ上がり、結局元より時間がかかる
タスク優先度や目的との整合性が不明確
回避・改善策
AI生成タスクはフィルターを通す:重要度・緊急度で整理
スコープ管理を明確化:生成量をコントロール
レビュー・精査ループを設置:生成AIタスクをそのまま実行しない
4️⃣ コラボレーション・意思決定地獄
事例
チームでAI生成コンテンツを共有 → 意見の衝突が増える
「AIが作ったから大丈夫」→責任所在不明 → トラブル増
意思決定プロセスが曖昧になり、結局全員が確認・修正に奔走
回避・改善策
生成AIはドラフトと明示:責任は最終判断者にある
共有前にチェックポイントを設置:目的・要件との一致を確認
チーム内ルールを作る:AI生成物の扱い、修正・承認フローを明確化
5️⃣ 生産性逆転地獄
事例
AIが一気に大量アウトプット → 確認工数が増え、人間の生産性が低下
仕事が増えた感覚になる → “生成AIで仕事が増える”典型パターン
回避・改善策
生成量を制御:必要分だけ生成する
タスク分解+優先度付け:AI生成物のチェックは必ず小分けに
フィードバックループを短く:1回で大量出力せず、小刻みに確認・改善
💡 全体のポイント
生成AIは「魔法ではなく道具」
「生成AIでラクになる」幻想は危険 → 確認・精査・修正が必ず発生
チームやワークフローに合わせて制御・ルール・スコープを明確化することが重要
希望であれば、上記の地獄事例を ワークフロー別に図解(PlantUMLやフロー図) して、どの段階で工数増加するか可視化することも可能です。
作りますか?

0c8ed300-c95b-40c0-a6da-94b082815296.png

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?