はじめに
先日、「教育×ChatGPT」というイベント(講演会)に参加してきました。
あらゆるメリット/デメリットがあるChatGPTですが、教育現場における課題点とその対策を知ることが出来たので、簡単にまとめ、所感を記したいと思います。
参加イベント
評価の変化
大学において最もメジャーな評価方法に「レポート」があります。
授業で教わった内容を元に、関連文献を読み漁り、自分なりの課題点と仮説を立て、考察をまとめていく。
レポート作成のこの流れは高等教育を修了した人であれば、誰しもが通ってきた道かと思います。
そして、多くの人が「自分で完遂することに意味がある」と考えるかと思います。
しかし、ChatGPTが普及してきた今、この「レポート」にある変化が訪れていると言います。
それは言わずもがな、ChatGPTを用いてレポートを作成することです。
ChatGPTは欲しい情報を教えてくれるだけではありません。「~を作成して。」と依頼するとそれを作成してくれます。
試しに「仮想的有能感と能動的攻撃性の関連性についてのレポートを作成して。」と依頼をしてみました。
(ちなみにこれは私が大学の卒論で提出したテーマです。)
タイトル: 仮想的有能感と能動的攻撃性の関連性についてのレポート
はじめに:
本レポートでは、仮想的有能感と能動的攻撃性の関連性について解説します。仮想的有能感は、個人が自己の能力や知識を過大評価する現象であり、能動的攻撃性はその感覚が他者への攻撃的な行動につながる場合を指します。この関連性は、オンライン環境において特に顕著であり、心理学やコミュニケーション研究において注目されています。1.仮想的有能感の概要:
仮想的有能感は、情報技術やインターネットの普及により、個人が容易に情報にアクセスできるようになったことで生じる現象です。
仮想的有能感を持つ人々は、自己評価が過大になり、自身の知識やスキルを他者よりも優れていると誤解する傾向があります。2.能動的攻撃性との関連性:
仮想的有能感を持つ個人は、その自己評価の高さから他者に対して優越感を抱く傾向があります。
この優越感から生じる攻撃的な行動は、能動的攻撃性と呼ばれます。
能動的攻撃性は、オンライン上で他者を攻撃する、批判する、嘲笑するなど、攻撃的な行動をとる傾向を指します。3.メカニズムと影響要因:
仮想的有能感と能動的攻撃性の関連性は、複数のメカニズムと影響要因によって説明されます。
Dunning-Kruger効果という心理現象は、能力の低さにもかかわらず自己評価が高まる傾向を示し、仮想的有能感と攻撃的な行動の関連性を説明する一つの要素です。
オンライン環境の匿名性や他者との物理的距離感の欠如も、攻撃的な行動を促す要因となる可能性があります。4.社会的影響と対策:
仮
途中で切れてしまいましたが、それっぽい文章が出来上がりました。
卒論で研究した身からすれば「何言ってんだこいつ…」と思わざるを得ない内容ですが…
ましてや引用文献の記載がないので、とても単位(点数)を与えられるレポートではないですね。
しかし、学生からしたらどうでも良いのです。
もっと細かく言えば、レポートを提出しないような学生からしたら、作成してくれること自体が貴重なので、その質はそこまで重要視しないのではないかと思います。
実際、従来ならレポートを提出しなかったような学生でも提出はするようになったと言います。
しかし、文脈や論理性に欠けたレポートが増えてきていることも事実とのことでした。
「そんなレポートには単位をあげなくて良い!」
と思いますが、技術は日進月歩です。
その分野の専門家が読んでも「問題ないな」と考えるレポートがAIによって出来上がるのも時間の問題かもしれません。
「それならばChatGPTを使ったレポート作成は禁止させれば良い!」
とも思います。
しかし、もし精度が限りなく100%に近いAIが登場したとして、あなたはそのルールを遵守出来ると言い切れるでしょうか。
目の前には素晴らしいレポートを一瞬で作成してくれるツールがあるのです。
「とりあえずAIに大部分を作成させて、重要なところだけ自分で手を加えよう」と考える人は少なくないはずです。
もう我々にはそれらと「共生していく」という選択肢しか残されていないのかもしれません。
ではどのように「共生」していくのか。
決定的な答えはまだないですが、ひとまず今回のテーマである「教育現場における評価」という観点では、
ChatGPTでレポートが作成されることは当たり前とした上で、課題の提示や採点方法を考える必要がある
とのことでした。
個人的には、「ChatGPTを使用して○○に関するレポートを作成し、そのレポートの問題点をまとめたレポートを作成せよ」というような課題があっても面白いのかなと思います。
(素人意見なので、これが「共生」なのかは分かりません。精度が格段に上がったらこれはもう使えない…)
従来通りの評価方法では「正しい評価」が出来なくなるのは時間の問題です。
AIの使用が当たり前となる時代を目の前にして、教育現場においてどのような評価軸が必要になるかは極めて重要な課題になると考えられます。
「情報」の判別力
面白い実例(実害?)
前の項目で、「仮想的有能感と能動的攻撃性の関連性についてのレポート」をChatGPTに作成させました。
大学の卒論で研究したテーマなので、私は記載内容の何が問題かが分かりますが、初めてこれらの言葉(概念)に出会った人からしたらChatGPTから出力される「答え」は、一見正確であるかのように見えると思います。
このように「ChatGPTから出力される結果をどう捉えるか」は、AIを活用する未来において極めて重要な問題になると考えられます。
ある大学にてこんな事象があったと言います。
学生:「○○という論文があるはずなのですが、全く見つかりません。。」
教員:「どうやって調べましたか?」
学生:「ChatGPTを使って調べました。」
教員:「どうやらChatGPTで出てきた論文は存在しないみたいです。」
この事象で面白いなと感じたのは、「この架空論文の著者として出力された人物は実在し、その人であればこの架空論文を書いていてもおかしくはない」という点です。
つまり、この著者と架空論文のテーマとなっている分野との間にはしっかりと関連性があるんですよね。
一見騙されてもおかしくはないと思います。
このようにChatGPTには、「存在しない情報や歴史をあたかも本物のように見せる側面がある」と考えられます。
そして、この側面がある以上、ChatGPTを活用する我々は「ChatGPTから出力される結果が正しいかを判別する必要がある」と言えます。
この判別が出来ず、ChatGPTから出力される結果が全て正しいと思い込んでしまうと、平気で情報の捏造を行ったり、偽りの事象や歴史を流布したりする危険性があり、社会に大きな影響を及ぼす可能性があります。
情報の判別力を育む
ChatGPTをはじめとするAI技術が急速に発達し、より多くの情報で溢れている現代において、正しいかを判別する力、いわゆる「情報の判別力」は誰もが持っているべき力だと考えられます。
では、どのようにその力を育めば良いのでしょうか。
私個人の考えですが、下記2つが重要になるかと思います。
①どんな情報も鵜呑みにしないこと
②とにかく知識を得ること
どちらも今に始まったことではありませんが、情報で溢れている現代において、今一度肝に銘じる必要があるかと思います。
特に①に関しては、情報の出自がどこであろうと持つべき視点だと考えます。
新聞やテレビ、ネットニュース、雑誌、先生、大学教授、家族、友人、有名人など、どれだけ信憑性が高そうな媒体であっても、鵜呑みにせず、一度「本当に正しいのだろうか?」と考えることで、間違った情報に惑わされなくなります。
そして、その判別をするためにも②の「知識を得ること」が重要になると思います。
知識があれば、論理の違和感に気が付くことが出来ます。
その違和感に気づけることが正しいかを判別するための第一歩となります。
他にもあるかもしれませんが、「情報の判別力」を育むためにはこの2つが最低限必要になるのかなと思います。
教育課題としてのChatGPT
上述した例で、学生が論文を探すためにChatGPTを使用していましたが、これから先、情報を得るための媒体としてChatGPTをはじめとするAIを利用することが当たり前になるのかもしれません。
また、大学生だけでなく、それより下の子ども達が当たり前のようにAIを使う未来がすぐそこまで来ているかもしれません。
「情報の判別力」がない状態でChatGPTを利用することは、誤った情報を信じてしまう危険性があります。
この危険性を考慮して、各教育現場において「ChatGPT使用禁止」というルールが定められてもおかしくはありません。
しかし、そんなルールに効力など無く、当たり前のように使われるのがオチでしょう。
AI技術が当たり前となる未来を避けることは恐らく不可能です。
理想論にはなりますが、教育現場に対しては、「情報の判別力」を育めるような環境を整えることが、子ども達の将来を豊かにするのではないかと思います。
また、しっかりとした「情報の判別力」があれば、ChatGPTをはじめとする各種AIを活用する幅が広がり、新たなイノベーションを生み出せる可能性もあります。
そういったメリットにも目を向けて、ChatGPTをはじめとするAIとどう共生するかを考え続けてもらいたいなと思います。
便利なものを正しく活用するためにも、我々も考え方を改め、AI技術と同じように成長し続ける必要があるのではないでしょうか。
参加しての感想
現代では、ChatGPTを利用することは既に当たり前の時代になっています。そのため、技術の規制により制約するのではなく、むしろどのようにChatGPTを活用するかが重要な議論となっています。
一般的に、ChatGPTは約80%の正確性を持っており、多くの場面で役立つ情報を提供してくれます。しかし、残りの20%程度の質には改善の余地があり、時には偽りの資料や論文、歴史を正しいものとして提示することもあります。したがって、ChatGPTを利用する際には注意が必要です。
教育現場では、ChatGPTをどのように活用できるのかという点についても検討されています。例えば、生徒や学生がChatGPTと対話することで、質問に対する回答や情報の提供を受けることができます。ただし、教育目的で使用する場合でも、正確性や情報の信頼性については慎重に確認する必要があります。
ChatGPTの危険性としては、誤った情報の拡散や偏った意見の強化が挙げられます。また、ChatGPTが人間のように見せかけて意図的に誤解を招く情報を提供することもあります。そのため、利用する際にはクリティカルな思考や情報の検証が不可欠です。また、個人情報の保護や利用目的の明確化など、倫理的な観点からも注意が必要です。
感想を書くのが面倒だったので、ChatGPTに書いてもらいました。
本記事はあくまで一つの意見文です。
皆様が考えるきっかけの一つになれれば幸いです。