はじめに
AIを上手く活用する人とそうでない人の違いは、プロンプトの技術ではありません。「何を任せるか」の判断力で差が生まれます。
AIが得意なことを任せれば生産性は爆発的に向上し、苦手なことを任せれば時間の無駄どころか、誤った結果まで得ることになります。
この記事では、現時点でのAIの明確な強みと弱み、そして「できるけど任せると危険なこと」を整理します。
1. AIが得意なこと
ドラフト作成(Drafting)
白紙から始めることは、人間にとって最もエネルギーを使う作業の一つです。AIはテーマと条件を与えれば、数秒で初稿を生成します。メール、報告書、ブログ記事、企画書、広告コピーなど、ほぼあらゆるテキストの初稿を作成できます。
重要なのは、あくまで「初稿」であるという点です。AIの出力は完成品ではなく、出発点として使うべきものです。
要約(Summarization)
長い文書、論文、議事録、記事などを、核心だけを抽出して整理する作業です。人間が30分かかる要約を、AIは数秒で処理します。PDFやテキストファイルを直接アップロードして要約させることも可能です。
翻訳(Translation)
AIの翻訳品質はすでにかなり高い水準にあります。単純な直訳ではなく、文脈を考慮した意訳が可能であり、専門用語を含む技術文書の翻訳にも有用です。ただし、文学的なニュアンスや文化的な文脈が重要な翻訳では、人間の検証が必須です。
コード生成・デバッグ(Code Generation & Debugging)
関数の作成、ボイラープレートコードの生成、エラーメッセージの分析、コードレビュー、テストコードの作成など、開発作業全般で強力です。特に「このエラーメッセージが何か説明して」といったデバッグ補助で高い効果を発揮します。
ブレインストーミング(Brainstorming)
アイデアが必要なとき、AIに多様な方向のアイデアを求めることができます。人間は自身の経験やバイアスに囚われやすいですが、AIは膨大な学習データを基に、予想外の方向からアイデアを提示できます。
フォーマット変換(Format Conversion)
JSONをCSVに、表をMarkdownに、非構造化テキストを構造化データに変換する作業です。ルールベースの反復作業をAIが非常に高速かつ正確に処理します。
分析・パターン認識(Analysis & Pattern Recognition)
データからトレンドを把握したり、テキストから感情を分析したり、ドキュメント間の共通点や相違点を比較する作業です。人間が見落としやすいパターンの発見に有用です。
2. AIが苦手なこと(または危険なこと)
最新情報の保証(Web検索なしの場合)
AIの学習データには時点があります。学習以降に発生した出来事、変更された法律、最新の統計などは把握していません。Web検索機能がある場合は補完可能ですが、検索結果の正確性も別途確認が必要です。
精密な数学的計算
AIは複雑な数学問題の解法プロセスの説明には優れていますが、実際の計算でミスをすることがあります。特に大きな数の掛け算、統計計算、小数点の演算などでエラーが発生し得ます。精密な計算が必要な場合は、AIにコードを書かせて、そのコードを実行する方法がより安全です。
100%の事実保証
Phase 1-1で学んだハルシネーションの問題です。AIは存在しない論文を引用したり、誤った日付を提示したり、実際とは異なる法律条項を述べることがあります。AIの回答に含まれる固有名詞、数値、日付、引用は必ず別途確認すべきです。
リアルタイムデータへのアクセス
現在の株価、リアルタイムの天気、ライブスポーツのスコアなど、リアルタイムで変動するデータには自力ではアクセスできません。Web検索やAPI連携など、外部ツールとの組み合わせが必要です。
物理的な行動
当然ですが、AIはデジタル領域内でのみ動作します。ファイルを印刷したり、荷物を送ったり、実験を実行したりすることはできません。
長期記憶(デフォルト状態)
デフォルトでは、AIは以前の会話を記憶していません。新しい会話を開始すると、以前に交わしたすべてのコンテキストが消えます。メモリ機能をオンにすれば一部補完可能ですが、完全な継続性は期待しにくい状況です。
主観的判断・価値判断
「このデザインはきれいですか?」「この事業アイデアは成功しますか?」といった質問にAIは回答しますが、それは学習データのパターンに基づいた「もっともらしい意見」であり、実際の判断ではありません。最終判断は常に人間の役割です。
3. 危険ゾーン:任せてはいけないこと
得意なことと苦手なことの間に、**「できるけど任せると危険なこと」**があります。この領域が最も重要です。
法律・医療アドバイスの最終判断として使うこと
AIは法律や医療に関する情報を提供できますが、それを専門家のアドバイスの代替として使用してはいけません。AIが提示する法律条項が現行法と異なる可能性があり、医療情報が個人の状況に合わない場合もあります。
数値ベースの意思決定をAIのみに依存すること
財務報告書の数字、統計データの解釈、投資判断などで、AIの回答を検証なしにそのまま使用すると、深刻な結果を招く可能性があります。
個人情報・機密情報を入力すること
AIに入力した内容がどのように処理されるかを理解し、機密情報の入力には慎重であるべきです。会社の機密コード、顧客の個人情報、内部戦略文書などを無分別に入力すると、セキュリティ上の問題が発生し得ます。
4. 実務での判断基準
AIに作業を任せる際、以下の3つの質問を自分自身に問いかけてみてください。
「間違っても大丈夫か?」
→ 大丈夫なら(ブレインストーミング、初稿など)→ AIに任せるのに適している
→ ダメなら(契約書、医療判断など)→ AIは補助役割のみ
「自分で結果を検証できるか?」
→ 検証可能なら → AIに任せて自分でレビュー
→ 検証不可能なら → AIに任せるべきではない
「最新情報が必要か?」
→ 必要なら → Web検索機能を併用するか、別途確認
→ 不要なら → AI単独で対応可能
5. まとめ
| 区分 | 内容 |
|---|---|
| 得意なこと | ドラフト作成、要約、翻訳、コード生成、ブレインストーミング、フォーマット変換、パターン認識 |
| 苦手なこと | 最新情報保証、精密計算、100%事実保証、リアルタイムデータ、物理的行動、長期記憶、価値判断 |
| 危険ゾーン | 法律・医療の最終判断、数値のみに基づく意思決定、機密情報の入力 |
| 判断基準 | ①間違っても大丈夫か ②自分で検証できるか ③最新情報が必要か |
| 最も重要なこと | 強みでは積極活用、弱みでは補助に限定、危険ゾーンでは必ず人間が検証 |
次回:Phase 1-3「コンテキストウィンドウ ― AIの短期記憶を理解する」
このシリーズは、AI活用を本格的に学びたい方のための体系的な講座です。Phase 1からPhase 5まで、基礎から実務・自動化まで段階的に学んでいきます。
参考資料
-
OpenAI「Why Language Models Hallucinate」 — LLMがハルシネーションを起こすメカニズムについてのOpenAI公式解説(本記事「100%の事実保証」セクション関連)
-
Nature「AI hallucinations are a feature of LLM design, not a bug」 — ハルシネーションはバグではなくLLMの設計上の特徴であるとするNature掲載の論考(本記事「苦手なこと」セクション関連)
-
arXiv「Hallucination is Inevitable: An Innate Limitation of Large Language Models」 — ハルシネーションがLLMの本質的な限界であることを数学的に証明した論文(本記事「100%の事実保証」セクション関連)
-
Duke University「It's 2026. Why Are LLMs Still Hallucinating?」 — 2026年時点でなぜLLMがまだハルシネーションを起こすのかの分析(本記事「苦手なこと」セクション全体関連)
-
Tech-Master「LLMができること・できないこと」 — LLMの得意分野と苦手分野を具体例とともに解説(本記事「得意なこと」「苦手なこと」セクション関連)
-
ナレッジホールディングス「大規模言語モデルの限界と可能性」 — AI研究者の視点からLLMの限界と可能性を解説(本記事全体の背景知識)
-
AXメディア「LLMの限界とは?7つの課題と今後の展望」 — LLMが直面する技術的限界と社会的課題の解説(本記事「苦手なこと」「危険ゾーン」セクション関連)
-
Zenn「LLMの落とし穴を徹底解説」 — ハルシネーション、コンテキスト制限等の技術的課題を開発者向けに解説(本記事「苦手なこと」セクション関連)