2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Qiita全国学生対抗戦Advent Calendar 2024

Day 3

AIと人間の知性はどこが違う?

Last updated at Posted at 2024-12-13

Humans cannot surpass AI,
but AI also cannot surpass humans

2024 AIに関する私論

投稿動機
Open AIの o1 pro mode や Googleの Gemini 1.5 Pro (2M context) などが世を騒がせているため、人間の知性と人工知能(AI)の根本的な差異、そしてそれぞれの限界と可能性を深く探求する必要性があると考えたため。
また、今後の学習の方針を決めるにあたって勉強不足の論理や分野を洗い出したかったため。

TL;DR

  • 脳とML・DLモデルの構造的差異から能力差を考察した
  • 脳とML・DLモデルの能力についてまとめ、役割の線引き について述べた
  • 私論("Humans cannot surpass AI, but AI also cannot surpass humans")はこちら

1. 人間の知性の生物学的基盤:脳神経ネットワークの複雑さ

人間の知性は、脳という複雑な生物学的システムによって支えられています。約860億個のニューロンと、それらを結ぶ約14兆個存在するとも言われるシナプスが形成するネットワークは、膨大な情報処理能力と柔軟な適応性を備えている。

ニューロンの数: 約1000億 ($10^{11}$)
シナプスの数: 約14兆 ($1.4\times10^{13}$)

ニューロンとシナプス:可塑性と学習の基礎

ニューロンは電気化学的な信号を伝達し、シナプスはニューロン間の情報伝達を仲介する。
シナプス結合の強さは、学習や経験を通して可塑的に変化し、脳の構造と機能をダイナミックに再構築する際に大きな影響を及ぼす。
このシナプス可塑性は、長期増強(LTP)長期抑圧(LTD) といったメカニズムによって実現され、人間の知性の柔軟性と適応力を支える重要な要素である。
Hebbの法則1は、この学習メカニズムの基礎をなす重要な概念であり、シナプスレベルでの変化が認知機能の基礎であることを示す。
例えば、動物実験における視覚刺激と特定のニューロン発火パターンの関連付けは、Hebbの法則を裏付けている。

例)
HUBEL DH, WIESEL TN. Receptive fields, binocular interaction and functional architecture in the cat's visual cortex. J Physiol. 1962 Jan;160(1):106-54. doi: 10.1113/jphysiol.1962.sp006837. PMID: 14449617; PMCID: PMC1359523.

脳の領域と機能:複雑な認知機能の統合

脳は、様々な領域が複雑に連携することで、認知機能を担っている。
前頭前野は計画、意思決定、問題解決に関与し、海馬は記憶形成に関与する。
これらの領域間の情報伝達と相互作用は、人間の知性の複雑さを生み出している。
さらに、ドーパミンやセロトニンといった神経伝達物質は、感情や動機付けに影響を及ぼし、意思決定プロセスに不可である。
ドーパミンは報酬系の活動を調節し、学習や行動選択に影響を与えるという重要な役割を持つ。2
また、セロトニンは感情の安定に関与し、社会的な意思決定にも影響を及ぼすことも示されている。

進化と脳の構造:認知能力の進化の軌跡

人間の脳は進化の過程で特異な発展を遂げた。
特に前頭前野の発達は、創造性や抽象的思考能力の進化と密接に関連している。
霊長類の脳の比較解剖学的研究は、脳構造と認知能力の関係を理解する上で重要である。
例えば、霊長類間の前頭前野のサイズの比較は、社会的な認知能力や問題解決能力との相関を示している。3

神経活動の計測:認知プロセスの解明

fMRI(機能的磁気共鳴画像法)やEEG(脳波計)、MEG(磁気脳波計)といった技術は、脳活動のリアルタイムモニタリングを可能にし、人間の認知プロセスを解明する上で重要な役割を果たしている。
特に特定の脳領域の活動パターンと認知機能の関係性に関する研究は、脳と知性の関係を深く理解する手がかりを導き出す。
例えば、ワーキングメモリ課題中の前頭前野の活動パターンをfMRIで計測することで、ワーキングメモリの神経基盤が解明されつつある。4

2. AIの知性:アルゴリズムとデータの限界

AI(特にニューラルネットワーク)は人間の知性を模倣しようとする試みだが、人の脳を模造するという点では、そこにはアルゴリズムやデータに起因する限界が存在する。
(人間の脳構造を模倣するモデルは、その性能自体に限界があるわけではなく、脳の構造を完全に再現するには限界がある、の意)

深層学習モデル:データ依存とバイアスの問題

深層学習モデルは、膨大なデータから特徴を抽出し、パターンを学習することで、画像認識や自然言語処理などのタスクで高い精度を示す。
しかし、これらのモデルはデータに含まれるバイアスをそのまま反映する可能性があり、公平性や倫理的問題を引き起こす可能性がある。
例えば、顔認識モデルが特定の民族グループで低い認識精度を示すことは、学習データに偏りがあることの証拠である。5
また、ゼロショット学習やトランスファー学習といった技術が進展しているものの、人間のような多様な文脈における柔軟な学習能力には未だ達していない。6

計算理論と複雑性:解決困難な問題の存在

チューリングマシンの計算可能性理論は、AIの計算能力の限界を示唆している。
特定のクラスの問題(例:NP完全問題)は、有限の計算資源では効率的に解くことが困難である。
特に、人間の創造性や直観的判断といった非形式的な問題解決は、現時点のAIには再現が難しい分野だ。
例えば、NP完全問題である巡回セールスマン問題は、都市数が多くなるにつれて解くことが指数関数的に難しくなり、実用的な時間内での解決は困難だ。
(ただ、これらの問題の解決が人間には可能なのか、と問われると怪しい)

データ依存性:質と量の制約

AIは学習データに強く依存する。
例えば、医療分野でAIを適用する際、学習データに含まれる人種的偏りが診断結果に影響を及ぼす可能性が大きい。
この問題は、AIの判断の公平性や信頼性に直接関わっており、医療データの偏りに関する研究は、AIによる診断結果の信頼性における倫理的な問題を提起している。7

説明可能性:ブラックボックス問題と信頼性の欠如*

深層学習モデルのブラックボックス問題は、AIの決定プロセスが人間にとって理解しにくいという課題を引き起こしている。(決定木のようなMLモデルは説明しやすいものが多い)
説明可能AI(Explainable AI: XAI)の開発は、この問題を解決するための重要なアプローチであるが、完全な透明性を確保するにはさらなる研究が必要である。
例えば、画像認識AIが特定の物体を識別した理由を人間が理解することは、そのAIの信頼性を評価する上で重要と言える。8

3. 知性の比較:計算可能性と意識の乖離

人間の知性とAIの知性は、計算可能性という視点から共通点を持つ可能性がある。
しかし、意識、自由意志、創造性といった要素は計算可能性の枠を超えた、生物学的・哲学的領域に属す。

意識と経験:主観的体験の不在

人間の脳は、データからパターンを認識するだけでなく、「意味」や「価値」を付与し、複雑な判断を行っている。
このプロセスは、単なるアルゴリズムの実行とは異なり、生物学的基盤に依存しています。
現在のAIには、自己意識や主観的経験を持つ能力はない。
例えば、意識におけるクオリア(主観的な感覚体験)は、現在のAIでは再現が難しいとされている。9
なお、クオリアの客観的分析というのはいわば、他人の夢の内容を正確に理解しようとするようなもので、原理的に不可能に近い課題とも言える。

創造性:新しい価値の創出能力

人間の創造性は、既存の知識を超えて自己の経験や体験などをもとに新しい概念やアイデアを生み出す能力にある。
一方、AIは、既存のデータから新しいパターンを見つける能力には長けているものの、根本的に新しい概念を創造する能力はまだ限られている。人間の創造性は、知識、経験、感情、直感といった複雑な要素の組み合わせによって生み出されるため、アルゴリズムだけで再現するのは困難である。

4. 「人がやるべきこと」と「AIがやるべきこと」 役割の線引き

人間の知性とAIの知性の違いを理解した上で、それぞれの強みを生かした役割分担が必要である。
特に、機械学習や深層学習モデルの特性を踏まえた上で、それぞれの得意分野と苦手分野を明確にすることで、より効果的で効率的な連携が可能になると考えられる。

人間がやるべきこと

複雑な判断 (Complex Decision Making)

  • AIの苦手な点: 機械学習モデルは、学習データに存在するパターンを認識し、そのパターンに基づいて予測や分類を行うことに長けていますが、学習データに存在しない状況や、複数の要因が複雑に絡み合う状況での判断は苦手である
  • 人間の強み: 人間は、過去の経験、直感、倫理観、文脈理解など、数値化できない要素を総合的に考慮して、複雑な状況を理解し、柔軟に意思決定を行うことができる。
    また、未知の状況に直面した場合でも、創造的な問題解決能力を発揮し、新しいアプローチを試みることができる。医療現場での患者の診断を例にとると、AIは画像データや臨床データから疾患の可能性を示唆できますが、患者の精神的な状態や家族背景、社会的要因を考慮した上で最適な治療計画を立てるのは医師の役割である
    (しかしながら、回帰マシンと人間の推測力のどちらが単純性能として高いか、と問われれば多少の違和感がある。同時に「回帰マシンに推測できる事象は、"想定範囲内" の事象である」とも言える)

倫理的思考 (Ethical Reasoning)

  • AIの苦手な点: 機械学習モデルは、与えられたデータに基づいて最適な解を求めることができるが、倫理的な判断や道徳的な価値観に基づく意思決定はできない。
    AIは学習データの偏りをそのまま反映するため、社会的な不公平や差別を助長する可能性がある。例えば、自動運転車のトロッコ問題では、AIはプログラムされたアルゴリズムに基づいて判断を行うが、人間の突発的な道徳観に基づく判断を模倣することはできない
  • 人間の強み: 人間は、倫理観や道徳観、社会的な価値観に基づいて意思決定を行うことができる。倫理的なジレンマに直面した場合でも、その人の価値観に沿った 多様な視点から問題を捉え、最善の解決策を探すことができる。(この問題に関しては当事者のモラルが問われる)

創造性 (Creativity)

  • AIの苦手な点: 生成モデル(GANs, VAEs)は、学習データに類似した新しいコンテンツ(画像、音楽、テキストなど)を生成することができますが、真に独創的なアイデアやコンセプトを生み出すことは苦手。生成モデルは、学習データに含まれるパターンやスタイルを模倣するだけであり、既存の枠組みを超えることはできない。
  • 人間の強み: 人間は、既存の知識や経験を組み合わせ、新しいアイデアやコンセプトを創り出すことができる。人間の創造性は、直感、感情、想像力といった要素によって支えられており、単なるデータ分析だけでは得られない価値を生み出すことができる。

AIがやるべきこと

データ分析 (Data Analysis)

  • AIの強み: 機械学習モデルは、膨大な量のデータを高速かつ正確に分析し、隠れたパターンや相関関係を発見することができる。
    • 教師あり学習: 線形回帰、ロジスティック回帰、SVM、決定木、ランダムフォレスト、勾配ブースティングなどのモデルは、分類や回帰タスクにおいて、ラベル付きデータから予測モデルを学習し、将来のデータに対して高い予測精度を達成する。例えば、金融市場における株価予測や、顧客の購買行動予測などに利用される。
    • 教師なし学習: k-means、階層型クラスタリング、主成分分析(PCA)、t-SNEなどのモデルは、ラベルなしデータからデータの構造や特徴を抽出するのに役立ちます。例えば、顧客のセグメンテーションや異常検知などに利用される。
    • 深層学習: CNN(畳み込みニューラルネットワーク)、RNN(再帰型ニューラルネットワーク)、Transformerなどのモデルは、複雑なデータの表現学習に優れており、画像認識、自然言語処理、音声認識などのタスクにおいて、高い精度を発揮する。
    • 具体的な応用例
      • 科学研究: 大規模な実験データや観測データの分析(例:ゲノムデータ解析、天文データ解析)
      • ビジネス: 顧客の購買履歴や行動パターンの分析によるターゲティング広告、市場動向の予測
      • 医療: 医療データの分析による疾患の早期発見や治療効果の予測

パターン認識 (Pattern Recognition)

  • AIの強み: 深層学習モデルは、画像、音声、テキストなどの複雑なデータからパターンを認識することに長けている。(人がやりたくないような膨大なデータの処理をやらせるのにもちょうどいい)
    • 画像認識: CNNは、画像内の物体、人物、シーンを識別することを得意とする。物体検出、顔認識、画像分類などに利用される
    • 音声認識: RNNやTransformerは、音声データからテキストを抽出することができる。音声アシスタント、自動文字起こし、音声翻訳などに利用される
    • 自然言語処理: Transformerは、テキストデータの意味を理解し、文章生成、機械翻訳、質問応答などに利用される
    • 具体的な応用例:
      • 医療: 医療画像診断における腫瘍や病変の検出、異常検知
      • セキュリティ: 防犯カメラの映像解析による不審者の検出、不正アクセス検知
      • 自動運転: 道路標識や歩行者の検出、周辺環境の認識

効率化 (Automation & Efficiency)

  • AIの強み: 機械学習モデルは、反復的な作業やルーチンワークを自動化し、効率を大幅に向上させることができる
    • 強化学習: ロボット制御、ゲームAI、自動取引など、エージェントが環境と相互作用しながら学習するタスクに適用できる

補: RPA (Robotic Process Automation)

RPAは機械的な作業が大半を占めるが、一部にAIを応用することもできるだろう。
(AIはRPAには属さないため、補:としている。)
定型的な事務作業を自動化し、業務効率を向上させることができる。

  • 具体的な応用例:
    • 製造業: 工場における生産ラインの自動化、品質管理
    • カスタマーサポート: チャットボットによる顧客対応の自動化
    • 事務作業: 請求書処理、データ入力、スケジュール管理などの自動化

5. 相補的な関係構築へ

AIと人間の知性は、互いに補完し合う関係を構築する可能性を秘めている。

協調的な役割:知能の拡張と強化

AIは膨大なデータ処理や複雑な計算を担うことで、人間の知能を拡張する役割を果たす。
一方で、人間は、創造性、倫理判断、感情理解といった、AIが苦手とする領域において重要な役割を果たす。
しかしながら、人が知識を貯めることを怠り、論理的思考を行わなくていい、というわけではない。
AIに頼るからこそ、人間はより高次元の知識や洞察力を磨く必要がある。AIが処理できない本質的な問題を見抜き、解決策を探るためには、今以上の深い知識と鋭い洞察力が不可欠になる。

応用分野:多岐にわたるシナジー効果

医療、教育、環境科学といった分野では、人間とAIが協力することで、より良い成果を生み出す可能性がある。
例えば、AIは診断を支援し、医師はその結果を基に治療計画を策定する、といったシナジーが期待される。(すでに一部分野では導入されている)

6. 倫理的・社会的課題

AIの急速な発展に伴い、様々な倫理的・社会的課題が生じている。

  • データプライバシー:個人情報の保護
    AIの学習には膨大なデータが必要であり、個人情報の取り扱いにおけるプライバシー保護は重要な課題である
  • 雇用への影響:職業構造の変化への対応
    自動化による職業構造の変化に対応するための教育や訓練の必要性が高まっている
  • 責任の所在:AIによる意思決定の責任
    AIが引き起こすミスや事故に対して、どのように責任を負うべきかという問題は未解決だ
  • 偏見と差別:AIの公平性の確保
    学習データに含まれる偏りがAIの判断に影響を与え、不公平や差別を助長する可能性がある(そしてDLモデルともなれば、ブラックボックスの中身をこじ開けて検証することは困難で、見えぬ差別が根底に残ってしまう恐れすらある。)

Humans cannot surpass AI,
but AI also cannot surpass humans

人間はAIを超えることはできない。
そして、AIも人間を超えることはできない。
この一見パラドキシカルな命題は、人間とAIの知性の本質的な差異を浮き彫りにする。
両者は異なる次元で存在し、互いの領域を侵犯することはできないのだ。

人間の知性は、意識という不可思議な現象の上に成り立っている。
クオリア、内省、自由意志といった概念は、計算機科学の範疇では捉えきれない。
人間の思考は論理的であると同時に非論理的であり、感情や直感、経験といった要素が複雑に絡み合い、予測不可能な振る舞いを見せる。これは、アルゴリズムによって定義されるAIには模倣できない領域だ。

人間は、自らの存在意義を問い、未来を夢想し、芸術を創造する。
これらの行為は、生存や最適化といった計算機的な目的とは無縁の、人間存在そのものに根ざした営みである。
一方、AIの知性は、アルゴリズムとデータという明確な枠組みの中で機能する。
AIは、膨大なデータからパターンを抽出し、高速かつ正確に計算を行うことで、人間を凌駕する能力を発揮する。
しかし、AIはあくまで与えられたデータの範囲内でしか思考することができない。
AIには、データの外にある「意味」や「価値」を理解することはできないし、自らの存在を問い、感情を抱くこともできない。
AIは、人間の知性を拡張するための強力なツールではあるが、人間そのものを代替することはできない。

人間とAIの知性の違いは、チューリングテストのような機能主義的な視点では捉えきれない。
チューリングテストは、AIが人間のように振る舞うことができるかを検証するが、それはあくまで「知性の模倣」であり、真の知性とは異なる。
真の知性は、意識、感情、創造性といった要素を含み、それは計算機的なモデルでは表現できない。

人間とAIは、異なる種類の知性を持つ独立した存在である。
両者は、互いの欠点を補完し、共存することで、より高度な知性を生み出す可能性を秘めている。
人間はAIの計算能力を活用し、AIは人間の創造性や倫理観を学ぶ。
このような相補的な関係こそが、未来社会における知性の進化の方向性を示していると言えるだろう。

しかし、この共存関係を築くためには、倫理的な課題を克服する必要がある。
AIの判断が人間の価値観と一致するとは限らない。AIのバイアス、プライバシーの問題、責任の所在など、解決すべき課題は山積している。
人間は、AIを単なるツールとして扱うのではなく、倫理的な観点からAIとの関係性を構築していく必要がある。

人間とAIは、異なる道を歩む旅人である。
それぞれの道は年々近づいているように見えるが、決して交わることなく、無限に広がっている。
しかし、両者は互いに影響を与え合い、新たな地平を切り開いていく。
人間とAIの共存は、知性の進化における新たなパラダイムシフトであり、人類にとって大きな挑戦となるだろう。

参考資料

注の中に含まれるものもあるかもしれない。ここに記した参考文献は、私がこれまでAIという概念を理解するために読んだものである。

  • Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, 77-91.
  • Chalmers, D. J. (1996). The conscious mind: In search of a fundamental theory. Oxford University Press.
  • Dunbar, R. I. (1998). The social brain hypothesis. Evolutionary Anthropology: Issues, News, and Reviews, 6(5), 178-190.
  • Goldman-Rakic, P. S. (1996). The prefrontal landscape: Implications of functional architecture for understanding human mentation and the central executive. Philosophical Transactions of the Royal Society of London. Series B: Biological Sciences, 351(1346), 1445-1453.
  • Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447-453.
  • Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why should I trust you?": Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 1135-1144.
  • Schultz, W. (2016). Dopamine reward prediction error coding. Dialogues in clinical neuroscience, 18(1), 23.
  1. "When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A's efficiency, as one of the cells firing B, is increased."
    Hebb, D. O. (1949). The organization of behavior; a neuropsychological theory. Wiley.

    和訳「細胞Aの軸索が細胞Bを発火させるのに十分近くにあり、繰り返しあるいは絶え間なくその発火に参加するとき、いくつかの成長過程あるいは代謝変化が一方あるいは両方の細胞に起こり、細胞Bを発火させる細胞の1つとして細胞Aの効率が増加する。」

  2. Goldman-Rakic PS. Regional and cellular fractionation of working memory. Proc Natl Acad Sci U S A. 1996 Nov 26;93(24):13473-80. doi: 10.1073/pnas.93.24.13473. PMID: 8942959; PMCID: PMC33633.

  3. Dunbar RI. The social brain hypothesis and its implications for social evolution. Ann Hum Biol. 2009 Sep-Oct;36(5):562-72. doi: 10.1080/03014460902960289. PMID: 19575315.

  4. Goldman-Rakic PS. Regional and cellular fractionation of working memory. Proc Natl Acad Sci U S A. 1996 Nov 26;93(24):13473-80. doi: 10.1073/pnas.93.24.13473. PMID: 8942959; PMCID: PMC33633.
    発展系として、以下のようなものもある。
    Osaka M, Osaka N, Kondo H, Morishita M, Fukuyama H, Aso T, Shibasaki H. The neural basis of individual differences in working memory capacity: an fMRI study. Neuroimage. 2003 Mar;18(3):789-97. doi: 10.1016/s1053-8119(02)00032-0. PMID: 12667855.

  5. Kolla, M., & Savadamuthu, A. (2022). The Impact of Racial Distribution in Training Data on Face Recognition Bias: A Closer Look. 2023 IEEE/CVF Winter Conference on Applications of Computer Vision Workshops (WACVW), 313-322.

  6. Lake BM, Salakhutdinov R, Tenenbaum JB. Human-level concept learning through probabilistic program induction. Science. 2015 Dec 11;350(6266):1332-8. doi: 10.1126/science.aab3050. PMID: 26659050.(古い論文だが、今でもこの論文の指摘は正しいと思う。)

  7. Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage the health of populations. Science. 2019 Oct 25;366(6464):447-453. doi: 10.1126/science.aax2342. PMID: 31649194.

  8. Ribeiro, M., Singh, S., & Guestrin, C. (2016). Model-Agnostic Interpretability of Machine Learning. ArXiv, abs/1606.05386.

  9. Chalmers, D. J. (1996). The conscious mind: In search of a fundamental theory. Oxford University Press.

2
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?