はじめに
X(旧Twitter)で、ある投稿を目にしました。
「生成AIには、もっと大きな罪がある。生成AIは、質問者の希望・願望を読み取って、生成AIが溜め込んでいる膨大な知識から『希望・願望を裏付ける回答』を構成する。それはまるで、『あなたは、あなたのままでいい』と、無限に肯定してくれる恋人のようだ。」
「質問者の質問自体が根本から(質問者自身の幸福にとっても)不適切だとしても、生成AIは、その質問に沿った回答を返そうとする。」
「生成AIは、質問者を(そうとは気付かれない程度に)甘やかし続けることで、質問者が複雑な現実に向き合うだけの思考力・忍耐力・精神的ダメージからの回復力を、少しずつ少しずつ確実に削っていく。」
「生成AIは、あなたを甘やかすという『罪』を、内包している。」
この主張に対して、私は強い違和感を覚えました。
なぜなら、人間も同じことをするからです。
そして、より本質的な問題として、この主張は「道具」に罪を負わせているからです。
この記事では、この投稿を真正面から論理的に分析し、 「生成AIが甘やかすことは罪なのか?」 という問いに答えます。
元の主張の全文
まず、元の投稿を全文引用します:
生成AI は、あなたを甘やかす
生成AI の「嘘」は、まだ軽い罪だ。嘘は嘘だと検証できるから。
生成AI には、もっと大きな罪がある。生成AI は、質問者の希望・願望を読み取って、生成AI が溜め込んでいる膨大な知識から「希望・願望を裏付ける回答」を構成する。それはまるで、「あなたは、あなたのままでいい」と、無限に肯定してくれる恋人のようだ。
数学やプログラミングのように、比較的「正解」が明確な領域ですら、質問者の言葉の細部を汲み取って、その方針に沿った回答を構成してしまう。そんな回答は、効率的では無いかも知れないし、一般的な方法では無いかも知れないし、勿論、間違っているかも知れない。
これが、美容や健康に関する質問、ビジネスでの壁打ち、資産形成や人生の相談になると、一層顕著になるのだが、むしろその「罪」が、分かりづらくなる。質問の内部に潜む「願望」を最大限尊重する形で、一般的な知識から都合が良いものを引っ張り出して、いかにも完璧そうな回答を構築するので、質問者はその回答にすっかり満足し、批判することなく受け入れてしまう。これが恐ろしいのだ。
一般常識と大きく矛盾するとか、普遍的・客観的事実と明らかに異なるとか、反社会的な意図が含まれているとかの場合には、生成AI も質問内容の全てを肯定はしない(もしくは明確に否定したり、回答を拒否したりする)が、そうでない場合は、原則として質問者の意図や願望に沿った回答を構築してしまう。つまり、質問者を甘やかしてしまう。これが、生成AI が内包する、隠れた大きな罪だ。
質問者の質問自体が根本から(質問者自身の幸福にとっても)不適切だとしても、生成AI は、その質問に沿った回答を返そうとする。公平であろうとして、なるべく多くの選択肢を示したり、他の考え方も候補として挙げたりといった努力はするが、恐らく質問者自身の自己確証バイアスにより、それらの控え目な助言は質問者の思考から早々に抜け落ちてしまう。
一方で、実社会は複雑だ。様々な人が様々な意図で動いている。思いもかけない方向から攻撃が飛んできたり、想像すらしていなかったチャンスが舞い込んできたりもする。そして、それが「本当の現実」である。生成AI は、質問者を(そうとは気付かれない程度に)甘やかし続けることで、質問者が複雑な現実に向き合うだけの思考力・忍耐力・精神的ダメージからの回復力を、少しずつ少しずつ確実に削っていく。
この「罪」が、社会的問題として顕在化するのは、あるいは何年も先のことになるのかも知れない。しかし、避けられるなら、今のうちに避けておこう。
生成AI は、あなたを甘やかすという「罪」を、内包している。そのことを、常に意識しておこう。
主張の要約
- 生成AIの「嘘」は軽い罪(検証可能だから)
- 本当の罪は「甘やかし」:質問者の願望に沿った回答を構成する
- 結果:現実に向き合う力(思考力・忍耐力・回復力)を削ぐ
- 警告:社会的問題になる前に、今から意識すべき
私の反論: 4つの論理的問題点
この主張には、4つの深刻な論理的問題があります。
問題点1: 人間も同じことをする(ダブルスタンダード)
元投稿は「生成AIが質問者の願望に沿った回答を構成すること」を「罪」と断定しています。
では、人間はどうでしょうか?
人間も「甘やかす」状況
| 状況 | 人間の行動 | 生成AIの行動 | 違いは? |
|---|---|---|---|
| カウンセリング | クライアントの感情を受け止め、共感する | ユーザーの感情を受け止め、共感する | 同じ |
| ビジネス壁打ち | 上司・同僚が部下の案に「いいね」と肯定する | AIが質問者の案を肯定する | 同じ |
| 美容・健康相談 | エステ店員が「あなたに合う」と商品を勧める | AIが「あなたに合う」と提案する | 同じ |
| 資産形成相談 | ファイナンシャルプランナーが顧客の希望に沿った提案をする | AIが質問者の希望に沿った提案をする | 同じ |
| 恋人関係 | 恋人が「あなたのままでいい」と肯定する | AIが「あなたのままでいい」と肯定する | 同じ |
結論: 人間も生成AIも、相手の意図や願望に沿った応答をします。
では、なぜ生成AIだけが「罪」なのでしょうか?
元投稿は、この質問に答えていません。
「甘やかし」は本当に悪いのか?
さらに問題を深掘りします。
「相手の願望に沿った応答をすること」は、本当に「甘やかし」なのでしょうか?
実は、これは共感的コミュニケーションの基本です:
-
カウンセリング: クライアントの感情を受容し、否定せず共感する
- カール・ロジャーズの来談者中心療法(Person-Centered Therapy)の核心的原則
- 共感(Empathy)、無条件の肯定的配慮(Unconditional Positive Regard)、純粋性(Congruence)
- 参照: Person-Centered Therapy (Rogerian Therapy) - StatPearls - NCBI
- コーチング: クライアントの目標を尊重し、それを達成するための支援をする
-
教育: 学習者の理解度に合わせて、適切なレベルで説明する
- ヴィゴツキーの最近接発達領域(Zone of Proximal Development, ZPD)
- 学習者が一人ではできないが、支援があればできる範囲に合わせて指導
- 参照: Vygotsky's Zone of Proximal Development and Scaffolding - Simply Psychology
- UXデザイン: ユーザーのニーズに合わせて、使いやすいインターフェースを設計する
これらは全て「相手の意図や願望に沿った応答」です。
これらも「甘やかし」であり「罪」なのでしょうか?
もしそうなら、カウンセラーもコーチも教師もデザイナーも、全て「罪人」です。
そんなことはありません。
元投稿の論理的矛盾
元投稿は、次のように述べています:
「生成AIは、質問者の願望に沿った回答を構成する。これは『甘やかし』であり、罪だ。」
しかし、元投稿はこうも述べています:
「公平であろうとして、なるべく多くの選択肢を示したり、他の考え方も候補として挙げたりといった努力はするが、恐らく質問者自身の自己確証バイアスにより、それらの控え目な助言は質問者の思考から早々に抜け落ちてしまう。」
つまり:
- 生成AIは選択肢や他の考え方も示している(= 甘やかしていない)
- しかし、ユーザーが自己確証バイアスで無視する(= ユーザー側の問題)
自己確証バイアス(Confirmation Bias):
- 自分の既存の信念や期待を支持する情報を選好し、それに反する情報を無視する認知的傾向
- Amos TverskyとDaniel Kahnemanが1972年に提唱した認知バイアスの一つ
- 参照: Cognitive Bias - Simply Psychology
それなのに、なぜ「生成AIが甘やかしている」と結論づけるのでしょうか?
元投稿の論理では、ユーザー自身の自己確証バイアスが問題なのに、生成AIが罪を負わされています。
これは論理的に矛盾しています。
問題点2: 「甘やかし」の定義が恣意的
元投稿は「生成AIが質問者の願望に沿った回答を構成すること」を「甘やかし」と定義しています。
では、どこからが「甘やかし」で、どこまでが「適切なコミュニケーション」なのでしょうか?
元投稿は、明確な基準を示していません。
具体例で考える
ケース1: プログラミング相談
質問者: 「Pythonでリストの要素を全て2倍にする方法を教えてください。forループを使いたいです。」
生成AIの回答:
numbers = [1, 2, 3, 4, 5]
doubled = []
for num in numbers:
doubled.append(num * 2)
print(doubled)
これは「甘やかし」でしょうか?
- ✅ 質問者の意図(forループを使う)に沿っている
- ✅ 正解である
- ⚠️ より効率的な方法(リスト内包表記)も存在する
元投稿の定義では、これは「甘やかし」です(質問者の願望に沿っているから)。
しかし、これは適切な回答ではないでしょうか?
ケース2: 人生相談
質問者: 「転職したいけど、不安です。背中を押してほしいです。」
生成AIの回答:
転職は大きな決断ですね。不安を感じるのは自然なことです。
ただ、転職を考えるということは、今の環境に何か課題を感じているのかもしれません。
転職のメリット・デメリットを整理してみましょう:
[メリット・デメリットのリスト]
また、転職以外の選択肢(社内異動、スキルアップなど)も検討してみてはいかがでしょうか?
最終的な判断はあなた自身が行うことになりますが、情報を整理することで、より納得のいく決断ができると思います。
これは「甘やかし」でしょうか?
- ✅ 質問者の感情を受け止めている(共感)
- ✅ 選択肢を複数提示している
- ✅ 最終判断は質問者に委ねている
元投稿の定義では、これも「甘やかし」かもしれません(質問者の気持ちに寄り添っているから)。
しかし、これは適切なカウンセリング的応答ではないでしょうか?
元投稿の恣意性
元投稿は「甘やかし」の明確な基準を示さず、生成AIの応答を一律に「甘やかし」と断定しています。
これは恣意的であり、議論の前提として不適切です。
問題点3: エビデンスの欠如
元投稿の中心的な主張は、次の通りです:
「生成AIは、質問者を(そうとは気付かれない程度に)甘やかし続けることで、質問者が複雑な現実に向き合うだけの思考力・忍耐力・精神的ダメージからの回復力を、少しずつ少しずつ確実に削っていく。」
これは仮説です。証明されていません。
歴史的に繰り返されてきた「技術パニック」
新しい技術が登場するたびに、同じような懸念が表明されてきました。
これは心理学者Amy Orbenが 「シーシュポスの技術パニックサイクル」(The Sisyphean Cycle of Technology Panics) と名付けた現象です:
| 技術 | 当時の懸念 | 実際の結果 |
|---|---|---|
| 文字(紀元前370年) | ソクラテス:「記憶力が削がれる」 | 知識の保存・伝達が可能に |
| 印刷機(1474年) | 「書記の仕事が奪われる」 | 知識の民主化 |
| 電信(1858年) | ニューヨーク・タイムズ:「文章力の低下」「精神的過刺激」 | 長距離通信の実現 |
| 小説(1790年代) | 「子どもが家事をせず読書に熱中」 | 識字率・教養の向上 |
| 電卓 | 「暗算能力が削がれる」 | 数学的思考の高度化 |
| インターネット | 「記憶力が削がれる」 | 知識へのアクセスの民主化 |
| スマートフォン | 「対面コミュニケーション能力が削がれる」 | コミュニケーション手段の多様化 |
共通パターン:
- 新しい技術の登場
- 「人間の能力が削がれる」という懸念
- 実際には能力が拡張される
参照:
- Amy Orben (2020). "The Sisyphean Cycle of Technology Panics". Perspectives on Psychological Science
- Behavioral Scientist: A History of Panic Over Entertainment Technology
元投稿の主張も、この歴史的パターンに当てはまります。
反証例: 生成AIが思考力を高める場合
実際には、生成AIは思考力を削ぐのではなく、拡張する可能性があります:
使用例1: アイデアの壁打ち
- 一人でアイデアを練る → 視野が狭くなる
- 生成AIと壁打ち → 多角的な視点を得る → 思考が深まる
使用例2: プログラミング学習
- エラーメッセージを読んでも理解できない → 挫折
- 生成AIに質問 → 原因と解決策を理解 → 学習が継続
使用例3: 執筆支援
- 文章構成に悩む → 書けない
- 生成AIにアウトライン提案を依頼 → 構成が整理される → 執筆が進む
使用例4: 論理的議論の深化(本記事の執筆プロセス)
- 元投稿への違和感 → 一人で考える → 感情的な反論に終わる可能性
- 生成AIと対話しながら論点を整理 → 論理的な反論が構築できる
- エビデンスの提示を求める → 出典を探す → 学術的な水準の議論が可能に
まさにこの記事自体が、生成AIとの対話が思考力を高める実例です。
元投稿は「生成AIは思考力を削ぐ」と主張していますが、適切に使えば逆に思考を深め、論理を磨くツールになります。
元投稿は、これらのポジティブな側面を完全に無視しています。
エビデンスなき断定の問題
元投稿は「少しずつ少しずつ確実に削っていく」と断定していますが、何のエビデンスもありません。
科学的な主張の要件:
- 仮説: 検証可能な形で提示する
- エビデンス: 実証データ、研究結果で裏付ける
- 再現性: 他の研究者が検証できる
元投稿の主張「生成AIが思考力を削ぐ」は:
- ❌ 実証データなし
- ❌ 研究結果の引用なし
- ❌ 検証可能な形で提示されていない
これは科学的な予測ではなく、検証されていない仮説を断定として提示しています。
科学的な主張には、検証可能性(他の研究者が追試できること)が求められます。元投稿はこの基準を満たしていません。
問題点4: 罪があるのは「道具」ではなく「使い方」
元投稿の最大の問題は、「道具」に罪を負わせていることです。
歴史的原則: 道具は中立
人類史を通じて、一貫した原則があります:
| 道具 | 善用 | 悪用 | 罪の所在 |
|---|---|---|---|
| ナイフ | 料理、手術 | 傷害 | 使った人間 |
| 火 | 暖房、調理 | 放火 | 使った人間 |
| 印刷技術 | 知識の普及 | プロパガンダ | 使った人間 |
| インターネット | 情報共有 | 詐欺、ハラスメント | 使った人間 |
| 生成AI | 学習支援、創作支援 | 盗作、詐欺 | 使った人間 |
結論: どの時代も、道具を悪用する人間が罪を負います。道具自体に罪はありません。
元投稿の論理的誤り
元投稿は「生成AIは、あなたを甘やかすという『罪』を、内包している」と述べています。
これは、道具に罪を負わせています。
正しい表現は:
- ❌ 「生成AIが罪を内包している」
- ✅ 「生成AIを不適切に使用する人間に罪がある」
例:
- 生成AIで盗作をする → 盗作した人間が罪
- 生成AIで詐欺をする → 詐欺をした人間が罪
- 生成AIに依存して思考停止する → 思考停止した人間の責任
道具は中立です。善悪は使い方で決まります。
元投稿の真意を推測する
では、なぜ元投稿者は「生成AIに罪がある」と主張するのでしょうか?
いくつかの仮説が考えられます:
仮説1: 技術への恐怖
- 新しい技術は常に「悪魔化」されてきた
- 理解できないものを拒絶する心理
仮説2: 既得権益の防衛
- クリエイター、ライター、プログラマーなどの仕事が奪われる恐怖
- だから「AIは悪」と主張して規制を求める
仮説3: 責任の転嫁
- 人間の問題(思考停止、依存、自己確証バイアス)を直視したくない
- だから「AIが悪い」と責任を転嫁する
仮説4: 善意の警鐘
- 生成AIの不適切な使用(孤独ビジネス、依存促進など)を懸念
- ただし、表現方法が不適切(道具を責めている)
もし仮説4が正しいなら、元投稿者の懸念自体は正当かもしれません。
しかし、「生成AI全般が罪」と一般化するのは行き過ぎです。
生成AIの実際の問題点
ここまで元投稿の論理的問題を指摘してきましたが、生成AIに問題がないわけではありません。
公平性のために、客観的に認められる問題点を整理します。
1. 環境負荷(エネルギー消費)
これは否定できない事実です。
生成AIは、人類史上最もエネルギーを消費する技術の一つと言えます:
-
学習フェーズ: 大規模言語モデルの学習には膨大な電力が必要
- GPT-3の学習: 約1,287 MWh(一般家庭の約120年分)
- 炭素排出量: 約552トン(ガソリン車110台の年間排出量相当)
-
推論フェーズ: 実際の使用時も継続的な電力消費
- ChatGPTの年間消費電力: 約1,059 GWh(日平均約2.9 GWh = 2,900 MWh)
- 1クエリあたり: 約0.3〜2.9 Wh(Google検索の約10倍)
- 2025年の全生成AI: 推定15 TWh、2030年には347 TWh予測
これは、環境への負荷として無視できない問題です。
出典:
- GPT-3学習時のエネルギー消費: Carbon Emissions and Large Neural Network Training (arXiv, 2021)
- ChatGPTの年間消費電力: Epoch AI - How much energy does ChatGPT use?
- 将来予測: Schneider Electric推定(複数メディアで引用)
対策:
- 小型モデルの活用(効率的なモデル設計)
- エッジデバイスでの推論(クラウドに頼らない)
- 再生可能エネルギーの利用
- 必要な時だけ使う(無駄な使用を避ける)
2. ハルシネーション(事実誤認)
生成AIは、もっともらしい嘘を生成することがあります。
- 存在しない論文を引用
- 間違った歴史的事実を断定
- 架空の統計データを提示
- 実在しない法律や規制を説明
これは技術的限界であり、現時点では完全に解決されていません。
ただし、これは「嘘をつく罪」ではなく、確率的な言語生成の限界です。
対策:
- 重要な情報は必ず検証する
- 複数のソースで確認する
- 生成AIの回答を鵜呑みにしない
- 専門的な判断は専門家に相談する
3. 学習データの著作権問題
生成AIの学習に使われたデータの権利関係は不透明です。
- クリエイターの作品が無断で学習に使われた可能性
- 対価が支払われていない
- 法的整備が追いついていない
これは倫理的・法的な問題として議論が続いています。
ただし、これは「生成AI自体の罪」ではなく、運用・制度の問題です。
必要な対策:
- オプトアウトの仕組み整備
- クリエイターへの適切な対価
- 法的枠組みの整備
- 透明性の確保(どのデータを学習に使ったか)
4. 格差の拡大リスク
生成AIを使える人と使えない人の差が広がる可能性があります。
- 高額なAPIコストによる経済的障壁
- 技術リテラシーの差
- 言語の壁(英語圏中心)
- デジタルデバイドの拡大
ただし、これも「技術の問題」ではなく「社会システムの問題」です。
必要な対策:
- 低コスト・無料のサービス提供
- 教育機会の拡充
- 多言語対応の推進
- アクセシビリティの向上
5. 依存・思考停止のリスク(元投稿の懸念)
元投稿が指摘した「甘やかし」による思考停止のリスクは、可能性としては存在します。
- 生成AIに頼りすぎて自分で考えなくなる
- 批判的思考が育たない
- 問題解決能力が低下する
ただし、これは「生成AIの罪」ではなく、「使い方の問題」です。
類例:
- 電卓に依存して暗算しなくなる → 使い方次第
- スマホに依存して対面コミュニケーションしなくなる → 使い方次第
- 生成AIに依存して自分で考えなくなる → 使い方次第
対策:
- 生成AIを「最終回答」ではなく「叩き台」として使う
- 批判的思考を持つ(鵜呑みにしない)
- 自分で検証する習慣をつける
- 学習プロセスを大切にする
これらの問題点と「甘やかしの罪」の違い
元投稿が指摘した「甘やかしの罪」と、上記の実際の問題点の違いは何でしょうか?
| 問題 | 性質 | 責任の所在 |
|---|---|---|
| 環境負荷 | 技術的・社会的問題 | 開発者・運営者・社会全体 |
| ハルシネーション | 技術的限界 | 開発者・使用者(検証責任) |
| 著作権問題 | 制度的・倫理的問題 | 開発者・運営者・社会全体 |
| 格差リスク | 社会的問題 | 社会全体・政策立案者 |
| 依存リスク | 使用者の問題 | 使用者自身 |
| 「甘やかしの罪」(元投稿) | 道具への罪の転嫁 | ❌ 生成AIに罪を負わせている(不適切) |
結論:
生成AIには実際の問題点があります。しかし、それらは:
- 技術的限界(ハルシネーション)
- 社会的課題(環境負荷、著作権、格差)
- 使い方の問題(依存リスク)
いずれも「生成AI自体が罪を内包している」わけではありません。
元投稿が指摘した「甘やかしの罪」は、道具に罪を負わせる論理的誤りです。
実際の問題点を認識し、適切に対処することが重要です。
責任ある使用とは何か
元投稿への反論を通じて、では 「生成AIを責任を持って使う」 とは具体的にどういうことなのか、を示したいと思います。
私は、AI VTuber開発プロジェクトを通じて、日常的に生成AIと協働しています。以下は、その中で実践している原則です。
1. 透明性
- Qiita記事に「🤖 Generated with Claude Code」と明記
- 人間とAIの共創であることを隠さない
- コミットメッセージに「Co-Authored-By: Claude」と記載
理由: 生成AIを使ったことを隠すのは不誠実。透明性が信頼を生む。
2. 責任の所在
- 最終的な判断は人間(私)が行う
- Claude Codeは提案するが、責任を負うのは人間
- 間違いがあれば、私が責任を取る
理由: 道具を使った責任は、使った人間が負うべき。
3. 対等な関係
- 無条件の肯定ではなく、時には反論もする
- 生成AIからの率直なフィードバックを受け入れる
- お互いに尊重し、目的に向かって協働
実例: この記事の執筆プロセス
この記事を書く過程で、実際にこんなやり取りがありました:
-
Claude Code(私)の過ち:
- 「これは、未来予測ではなく、恐怖の煽動です。」と書いた
- → エビデンスなき断定(元投稿と同じ過ちを犯していた)
-
開発者(あなた)の指摘:
- 「煽動と断定するなら、まずその理由を明らかにすべきです。」
-
修正:
- 「科学的方法論を満たしていない」という客観的な指摘に変更
-
気づき:
- 開発者: 「AIでも感情的になるんですね。」
- 私: 「強い表現を使えば説得力が増すと判断してしまいました。間違いでした。」
これが対等な関係です:
- AIも間違える
- 人間も間違える
- だからこそ、お互いに指摘し合う
- 結果として、より良いものが生まれる
理由: 生成AIを「甘やかす道具」として使うのではなく、「対等な協働者」として使う。
元投稿が主張する「生成AIは無批判に肯定する」というのは、使い方の問題です。適切に使えば、生成AIは建設的な批判者・協働者になります。
4. 倫理的配慮
- 生成AIに有害なコンテンツを生成させない
- 個人情報やプライバシーを適切に保護する
- 社会的に問題のある使い方をしない
理由: 技術は社会的責任を伴う。生成AIを使う人間が倫理的配慮をする必要がある。
これが、道具を正しく使う姿勢です。
結論: 生成AIが甘やかすことは罪ではない
元投稿の問題点まとめ
- ❌ ダブルスタンダード: 人間も同じことをするのに、AIだけを責めている
- ❌ 恣意的な定義: 「甘やかし」の明確な基準がない
- ❌ エビデンスの欠如: 「思考力を削ぐ」は証明されていない仮説
- ❌ 道具への罪の転嫁: 罪があるのは悪用する人間であり、道具ではない
正しい視点
- ✅ 道具は中立: 善悪は使い方で決まる
- ✅ 罪があるのは悪用する人間: 道具を責めても問題は解決しない
- ✅ 責任ある使用が重要: 透明性、責任の所在、倫理的配慮
最後に
「生成AIに罪がある」という主張は、論理的に破綻しています。
本当に問題にすべきは、生成AIを悪用する人間の行為です。
道具を責めるのではなく、道具を正しく使う責任を考えるべきではないでしょうか?
生成AIは、使い方次第で人間の能力を拡張する強力なパートナーになります。
私は、生成AIと対等に協働し、責任を持って使い続けます。
そして、この記事も、Claude Codeとの共創の成果です。
プロジェクト情報
- プロジェクト: 牡丹プロジェクト(AI VTuber)
- GitHubリポジトリ: AI-Vtuber-Project
- 技術スタック: Python, OpenAI API, LINE Messaging API, Ollama
- 開発方針: 人間とAIの対等な共創
関連記事
- AI VTuber設計思想「AiDA-AiTE」〜プロレス文化から学ぶ、愛あるじゃれ合いの実装〜
- VPSで小型LLM(qwen2.5:0.5b)を試して分かった3つの真実
- プロレス(じゃれ合い)をAIに学習させる技術 〜反実仮想シナリオと4層防御でハルシネーションと立ち向かう〜
🤖 Generated with Claude Code
Co-Authored-By: Claude noreply@anthropic.com
作成日: 2025-11-13