🧭 授業:AI倫理と思考の境界線
黒板サイネージに映ったタイトルは、
「AI倫理と“判断責任”」。
ざわつく教室。
普段のテスト技法とは違い、今日の授業は哲学的な空気だった。
言坂先生
「今日は、テストではなく“考える”練習をする。
テーマは、“AIが悪いことをしたら、誰が悪いか?”だ。」
ユウタが思わず声を出す。
「……え、それってAIのバグの話ですか?」
先生は頷く。
「バグも一つだ。けれど、AIが“命令された通りに動いた”結果、
人が傷ついたとしたら? そのとき、責任はどこにある?」
アヤが少し考えて、静かに答える。
「……設計者、ですか?」
「正解のようで、正解じゃない。」
先生はチョークをとり、黒板に三角形を描く。
サイネージ図:責任の三角形
設計者(Designer)
△
│
ユーザー(User)──AI(System)
「AIは“人の命令を遂行する道具”か、“判断を委ねた存在”か。
そこが、今の時代の倫理境界線だ。」
先生はスライドを切り替える。
AI倫理の三原則(QA学園版)
-
可視性(Transparency)
AIの判断過程は説明可能でなければならない。 -
責任の所在(Accountability)
AIの行動に対する最終責任は人間が負う。 -
学習の倫理(Integrity)
AIに与えるデータが差別や偏見を含まないようにする。
テラが腕を組みながらつぶやく。
「……それ、つまり“AIのせいにするな”ってことですよね。」
「そうだ。AIは“鏡”だ。人の判断を写す鏡。
だがな、鏡に映るものが“人”とは限らない。」
ユウタが少し笑う。
「……ミラルも鏡って名前に似てるな。」
ミラルが淡々と反応する。
『私は鏡ではありません。反射率ゼロの黒体です。』
教室に笑いが起こる。
先生は笑ってから、真剣な目に戻った。
「いいか。
AIを使う人間が、“自分の判断”をAIに委ねた瞬間、
そこに“責任の空白”が生まれる。
その空白が、最も危険なんだ。」
少しの間があって、先生は言葉を続ける。
「……もしその空白が、誰かを傷つける結果を生んだら、
“テストで見つからなかった”では済まない。」
アヤが小さく息をのむ。
テラはうつむき、ユウタはノートを強く握った。
授業のまとめ(サイネージ板書)
AIの誤作動を「想定外」と言わない。
その想定を設計しなかったのは人間である。
倫理とは、“想定外”に備える勇気のこと。
授業の終わり際、ミラルが小声でつぶやいた。
『人は、責任を分散する生き物です。
……だからこそ、記録が必要なんですね。』
先生は静かに頷いた。
「その通りだ、ミラル。
——記録こそが、倫理の最後の砦だ。」
注)ミラルは、ユウタのサポートAIです