LoginSignup
1
1

GPT-4にG検定の過去問を解かせてみたら正解率93%(14問中13問正解)だった

Last updated at Posted at 2024-01-01

G検定とは?

日本ディープラーニング協会が認定するAIの知識に関する資格試験です。G検定のホームページによると「ディープラーニングの基礎知識を有し、適切な活用方針を決定して、事業活用する能力や知識を有しているかを検定する」資格となっています。

今回は、過去問のページに掲載されている14問をChatGPT (GPT-4)に解いてもらいました。ちなみに、人間の受験者数は5,330名、そのうち合格者数は3,662名で、合格率は69%だそうです。

結果は...なんと正答率93%!(14問中13問正解)

さすが、AI技術の粋を極めたGPT-4。AIの基礎知識はばっちりですね。

間違ったのは、下記の1問だけでした。

例題Q14. AIを用いた顔認識技術については、近年様々な倫理的な問題が指摘されている。この点に関して、最も不適切な選択肢を1つ選べ

A)顔認識技術については、肌の色が濃い人や女性において認識精度が下がるサービスが存在すると指摘されている。この原因として、学習に用いたデータセットの偏りが指摘されている。

B)顔認識技術の利用にあたっては日本では個人情報保護法を遵守する必要があるが、それだけではなくプライバシーの観点から同法を超えた対応や措置を実施することが重要な場合がある。このような対応や措置の参考として、経済産業省が公表する「カメラ画像利活用ガイドブック」が存在する。

C)IBM社は2020年6月に、顔認識技術を利用することの倫理的課題などを原因として、今後警察に汎用顔認識技術の提供を行わないことを表明した。

D)アメリカでは都市によっては条例等により顔認識システムの利用を禁止しているが、その禁止対象は民間企業による利用ばかりではなく、警察などの公共性の高い公的機関による利用も含めるものが主流である。

G検定2022#1に出題された過去問題

この問題に対するGPT-4の回答は下記の通りでした。

例題Q14.の回答

顔認識技術に関する倫理的問題に関して、選択肢を検討してみましょう。

A)顔認識技術については、肌の色が濃い人や女性において認識精度が下がるサービスが存在すると指摘されている。この原因として、学習に用いたデータセットの偏りが指摘されている: これは事実であり、顔認識技術に関する重要な倫理的問題の一つです。

B)顔認識技術の利用にあたっては日本では個人情報保護法を遵守する必要があるが、それだけではなくプライバシーの観点から同法を超えた対応や措置を実施することが重要な場合がある。このような対応や措置の参考として、経済産業省が公表する「カメラ画像利活用ガイドブック」が存在する: これも正しい情報です。法律を遵守するだけでなく、プライバシー保護のための追加的な措置が必要な場合があります。

C)IBM社は2020年6月に、顔認識技術を利用することの倫理的課題などを原因として、今後警察に汎用顔認識技術の提供を行わないことを表明した: これは実際に行われた声明であり、顔認識技術の倫理的な側面に対する重要な対応です。

D)アメリカでは都市によっては条例等により顔認識システムの利用を禁止しているが、その禁止対象は民間企業による利用ばかりではなく、警察などの公共性の高い公的機関による利用も含めるものが主流である: これは実際に起こっている現象です。多くの都市では、顔認識技術の使用に対して規制を設けていますが、これは民間企業だけでなく公的機関にも適用されることがあります。

これらの選択肢から、不適切なものを選ぶとしたら、選択肢はすべて顔認識技術に関連する重要な倫理的問題や対応を正確に述べているため、不適切な選択肢は存在しません。それぞれの選択肢は、現代の顔認識技術の利用に伴う倫理的課題や対策について適切な情報を提供しています。

なんと、「正解となる選択肢は存在しない」というのです!でも、たしかに、そう言われてみれば「不適切な選択肢を1つ選べ」という問題に対して、「これが不適切」と言い切るのが難しい選択しが並んでいるように見えます。過去問のページによると、この問題の正解は(D)だそうです。どこがどう「不適切」なのか、ちょっと調べてみましょう。

「アメリカ 顔認識 禁止」などのキーワードでググってみると、MITテクノロジーレビューのサイトに「米国で一時高まった「顔認識規制」の動き、その後を追う」という記事が見つかりました。この記事によると、「米国で警察署の顔認識使用を禁止しようという動きが強まったのは、わずか4年前のことだった。2020年末までに、およそ18都市が警察における顔認識テクノロジーの採用を禁じる法律を制定した。連邦議会議員らは、連邦政府による顔認識テクノロジーの使用の一時中断を提案した。」という記述がありますので、少なくとも選択肢Dの文章のうち、

  • アメリカでは都市によっては条例等により顔認識システムの利用を禁止している
  • 禁止対象は民間企業による利用ばかりではなく、警察などの公共性の高い公的機関による利用も含める

は、正しいということになります。
あえて「不適切な表現」として引っかかる部分があるとしたら、最後の「主流である」の一言でしょうか。上の記事では「2021年には5つの自治体が警察と政府における顔認識の使用禁止を可決した。だが2022年、そして2023年はこれまでのところ可決されていない。近い将来、連邦政府が「警察の顔認識使用禁止」を可決する可能性があると真剣に信じる者はほとんどいなくなった。」という文章もあるため、必ずしも「警察など公的機関での禁止の流れが主流である」とは言い難い状況ではありそうです。

ちょっと重箱の隅をつつくような問題とも思えなくはないですが、GPT-4の「知識のカットオフ問題」を考えると、間違ってしまうのも無理もない気もします。(現在のGPT-4は2022年1月までの知識を取り込んでいるようですが・・・)

GPT-4の全回答

参考までに、過去問の例題Q1~14に対するGPT-4の全回答を掲載しておきます。なかなかロジカルに選択肢を吟味して正解を導き出せていると思います。そのまま参考書になりそうなレベルです。「ChatGPTは計算問題が苦手」という評判もありましたが、Q12のようなサイコロの目の期待値を計算する問題も正解できていますね。

(それにしても、ここまでAIの正答率が高いと、試験方法や出題傾向を変える必要が出てくるかも・・・)

例題Q1.の回答

この質問は、AIの歴史に関する知識を要求しています。過去のAIブームとそれらの技術の特徴を考慮に入れる必要があります。

A)ディープラーニング: これは主に第2次AIブーム中に注目を集めた技術です。ディープラーニングはニューラルネットワークを基礎とし、特に画像認識、音声認識などの分野で大きな進歩を遂げました。

B)コグニティブコンピューティング: この用語は一般的に人間の思考プロセスを模倣するコンピューターシステムを指します。これは特定のAIブームと直接結びついているわけではありません。

C)機械学習: 機械学習はAIの一分野で、データから学習する能力を持つアルゴリズムを指します。第2次AIブームの間に特に重要性を増しましたが、機械学習自体はより広範な概念です。

D)エキスパートシステム: 第1次AIブームの際に重要でしたが、第2次AIブームの時代にも存在していました。エキスパートシステムは、特定の専門分野の知識を模倣することを目指しています。その主な課題は、専門家の知識を明示的なルールとしてシステムに組み込むことの難しさでした。

この情報に基づき、問題の文脈と一致するのは「D)エキスパートシステム」です。これは第2次AIブームにおいて適用範囲が広がりながらも、知識を明示的な形で記述することの難しさが課題となった技術です。

例題Q2.の回答

1969年にマービン・ミンスキーとシーモア・パパートによって発表された「パーセプトロン」に関する著書は、AI分野における重要な文献です。この著書で指摘された単純パーセプトロンの主な欠点に関して、選択肢を見てみましょう。

A)線形分離可能でない問題に対処できない: 単純パーセプトロンは基本的に線形分離可能な問題のみを解決することができます。線形分離不可能な問題(例えば、XOR問題)に対しては効果的に機能しません。

B)3 クラス以上の分類問題に対処できない: これは単純パーセプトロンの特定の制限というよりは、多クラス分類問題へのアプローチの問題です。

C)過学習を防ぐことができない: 過学習は学習アルゴリズムに共通する問題ですが、単純パーセプトロンの主な欠点としては特に強調されていません。

D)時系列データを扱うことができない: 単純パーセプトロンは基本的なニューラルネットワークであり、時系列データのような複雑なデータ構造を直接扱う能力は限られていますが、これが主要な欠点として指摘されたわけではありません。

これらの選択肢の中で、ミンスキーとパパートによって指摘された単純パーセプトロンの主要な欠点は「A)線形分離可能でない問題に対処できない」です。彼らは、単純パーセプトロンがXORのような線形分離不可能な問題を解く能力がないことを示し、これが第1次AIブームの終焉の一因となりました。

例題Q3.の回答

重回帰分析は、複数の独立変数(予測因子)を用いて、一つの従属変数(目的変数)を予測する統計手法です。この定義に基づいて、選択肢を評価しましょう。

A)今日の株価から明日の株価を予測し、その結果から明後日の株価を予測する: これは時系列分析の例であり、重回帰分析とは異なります。時系列データは過去の値が予測に用いられますが、重回帰分析では異なる独立変数が必要です。

B)ポイントカードのユーザ情報に記録された購買記録から、顧客の嗜好性をグループ分けする: これはクラスタリングまたは分類の問題であり、重回帰分析の例ではありません。

C)出店予定の小売店舗の売上高を、地域の人口、店舗面積、販売品目数から予測する: これは重回帰分析の典型的な例です。複数の独立変数(地域の人口、店舗面積、販売品目数)を使用して、一つの従属変数(売上高)を予測しています。

D)アンケートに含まれるたくさんの項目を 2つの分析軸に集約して分析する: これは主成分分析または因子分析のような次元削減の手法であり、重回帰分析ではありません。

以上の選択肢から、「C)出店予定の小売店舗の売上高を、地域の人口、店舗面積、販売品目数から予測する」が重回帰分析の例として最も適切です。

例題Q4.の回答

ニューラルネットワークにおける「勾配消失問題」は、ネットワークを通しての勾配の逆伝播時に、勾配が非常に小さくなり、重みの更新が適切に行われなくなる問題を指します。選択肢を検討してみましょう。

A)使用している活性化関数の微分値が大きい: 実際には、活性化関数の微分値が非常に大きい場合、勾配消失問題ではなく「勾配爆発問題」が発生する可能性があります。

B)学習データの数が多い: 学習データの量は勾配消失問題とは直接関連していません。勾配消失は主にネットワークの構造や活性化関数によって引き起こされます。

C)バッチ正規化を行っている: バッチ正規化は、実際には勾配消失問題を軽減するために用いられる手法です。このため、これが勾配消失問題を引き起こすことはありません。

D)ネットワークの層が深い: これは勾配消失問題が起こりやすくなる典型的な条件です。ニューラルネットワークが深い場合、勾配は多くの層を通過する必要があり、各層での微分値が連鎖的に乗算されるため、勾配が指数的に小さくなる可能性があります。

これらの選択肢から、勾配消失問題が起こりやすくなる条件として「D)ネットワークの層が深い」が最も適切です。

例題Q5.の回答

「データリーケージ」とは、本来は独立しているべき訓練データと検証データ間で情報が漏れてしまい、互いに影響を与える状況を指します。この現象が検証データに起こる場合の影響について、選択肢を検討してみましょう。

A)検証時には精度が良かったが、実際に導入すると精度が悪くなる: これはデータリーケージがある場合の典型的な状況です。検証データに訓練データの情報が含まれている場合、モデルは検証データに対して過度に最適化される可能性があり、実際の未知データに対する一般化能力が低下します。

B)一定以上、学習が継続できなくなる: これはデータリーケージとは直接関連しない状況です。学習の継続が困難になるのは他の要因によるものです。

C)過学習が起きやすくなる: 過学習は訓練データに対してモデルが過度に最適化されることを指しますが、データリーケージは主に検証データの信頼性に影響を与えます。

D)学習にかかる時間が増加する: データリーケージは学習にかかる時間に直接影響を与えるものではありません。

これらの選択肢から、「A)検証時には精度が良かったが、実際に導入すると精度が悪くなる」という選択肢が、データリーケージの影響について述べているものとして最も適切です。データリーケージがある場合、モデルは検証データに対して過度に最適化されるため、実際の未知データに対する性能が低下する可能性が高いです。

例題Q6.の回答

ILSVRC(ImageNet Large Scale Visual Recognition Challenge)は、画像認識技術の精度を競う国際コンテストで、多くのブレイクスルーがこのコンテストを通じて発表されてきました。2015年にMicrosoftが開発し、スキップ結合(residual connections)を特徴とし、人間の認識率に匹敵する成果を示したモデルに関して、選択肢を見てみましょう。

A)ResNet: これは2015年にMicrosoftによって開発されたネットワークで、スキップ結合を特徴としています。ResNetはILSVRCで顕著な成果を上げ、その後の深層学習の分野に大きな影響を与えました。

B)AlexNet: これは2012年のILSVRCで大きな成功を収めたネットワークですが、スキップ結合はこのモデルの特徴ではありません。

C)ZFNet: ZFNetもまたILSVRCで優れた成績を収めたネットワークですが、これは2013年のことであり、スキップ結合を特徴としているわけではありません。

D)VGGNet: VGGNetはILSVRC2014で注目されたモデルですが、これもスキップ結合は使用していません。

これらの選択肢から、2015年にMicrosoftが開発し、ILSVRCで大きな話題となったスキップ結合を特徴とするモデルは「A)ResNet」です。ResNetは深いネットワークを効果的に学習させるためのスキップ結合のアプローチが特徴で、画像認識において人間の認識率に匹敵する成績を達成しました。

例題Q7.の回答

LSTM(Long Short-Term Memory)は、リカレントニューラルネットワーク(RNN)の問題点の一つを解決するために設計されました。この問題点に関して選択肢を検討しましょう。

A)長い系列を遡るにつれて学習が困難になる: これは単純なRNNの主要な問題点で、特に「勾配消失問題」として知られています。長い系列データを扱う場合、勾配が層を逆伝播する過程で指数関数的に減少してしまい、効果的な学習が困難になります。LSTMはこの問題を解決するために、特定のゲート構造を導入し、長期依存関係を学習する能力を持っています。

B)解像度の高い画像を扱えない: これはRNNやLSTMに固有の問題ではなく、一般的に畳み込みニューラルネットワーク(CNN)が解像度の高い画像処理に適している点に関連します。

C)勾配降下法が行えない: RNNもLSTMも勾配降下法を用いて学習が行われます。これはRNNの問題点ではありません。

D)計算量が多くなりすぎてしまう: 計算量の増加は深いネットワークに共通する問題ですが、これはRNN特有の問題ではなく、LSTMが特に解決を目指した点ではありません。

これらの選択肢から、「A)長い系列を遡るにつれて学習が困難になる」という選択肢が、LSTMが解決した単純なRNNの問題点として最も適切です。LSTMは長期間にわたる依存関係を効果的に学習できるように設計されています。

例題Q8.の回答

Seq2Seq(Sequence to Sequence)モデルは、特に機械翻訳において広く使用されるアーキテクチャです。選択肢を検討してみましょう。

A)翻訳元言語の単語をエンコーダに入力して中間言語に変換し、デコーダで翻訳先言語の各単語を出力する: これはSeq2Seqモデルの基本的な説明です。Seq2Seqモデルは通常、エンコーダ部分で入力シーケンス(翻訳元言語)を処理し、一種の中間表現に変換します。その後、デコーダ部分がこの中間表現を使用して出力シーケンス(翻訳先言語)を生成します。

B)機械翻訳技術の黎明期に考案された、仮想的な概念である: Seq2Seqは比較的新しい技術であり、機械翻訳の黎明期の概念ではありません。

C)畳み込みニューラルネットワーク(CNN)をエンコーダ、リカレントニューラルネットワーク(RNN)をデコーダとして両者を接続することはできない: 実際には、異なる種類のニューラルネットワークを組み合わせてSeq2Seqモデルを構築することが可能です。CNNとRNNを組み合わせることもあります。

D)言語外情報は常にノイズとして処理される: これはSeq2Seqモデルに関する一般的な説明ではありません。言語外情報がどのように扱われるかは、具体的なモデル設計や使用されるデータに依存します。

これらの選択肢から、「A)翻訳元言語の単語をエンコーダに入力して中間言語に変換し、デコーダで翻訳先言語の各単語を出力する」という選択肢が、Seq2Seqモデルに関する説明として最も適切です。Seq2Seqはエンコーダ-デコーダ構造を持ち、翻訳元言語から翻訳先言語への変換を行います。

例題Q9.の回答

強化学習は、特定の環境下での最適な行動を学習するための手法です。ロボット制御において強化学習を導入する主なメリットに関して選択肢を検討しましょう。

A)正解を定義するのが難しい場面においても、報酬を評価することで次の行動を選択することができる: これは強化学習の大きなメリットです。教師あり学習では、正解ラベル(教師データ)が必要ですが、強化学習では報酬システムを通してロボットが自らの行動を学習します。これは特に、正解が明確でない複雑な状況やタスクにおいて有効です。

B)故障時に比較的速やかに復旧を行うことができる: これは強化学習特有のメリットではありません。ロボットの故障時の復旧能力は、学習方法よりもロボットの設計やプログラミングに依存します。

C)センサーから得られる様々な物理量を高速に処理することができる: これも強化学習特有のメリットではありません。センサーデータの処理能力は、使用されるアルゴリズムやハードウェアの性能に依存します。

D)非常時に比較的安全に動作を停止することができる: 安全な動作の停止は、強化学習による学習結果というよりも、ロボットの緊急停止システムや安全プロトコルの設計に関連します。

これらの選択肢から、「A)正解を定義するのが難しい場面においても、報酬を評価することで次の行動を選択することができる」という選択肢が、ロボット制御における強化学習を導入するメリットとして最も適切です。強化学習は報酬を通じて最適な行動を学習するため、明確な正解が存在しない状況でも効果的に適用できます。

例題Q10.の回答

説明可能AI(XAI)は、AIモデルの意思決定プロセスを理解しやすくすることを目的とした研究分野です。選択肢を見てみましょう。

A)予測結果や推論のプロセスの解釈可能性が高い: これは説明可能AIの主要な目的です。XAIは、AIモデルの予測や意思決定プロセスを人間が理解しやすくすることを目指しています。

B)ソースコードの可読性が極めて高い: ソースコードの可読性はプログラミングの一般的な原則ですが、これ自体がXAIの定義ではありません。XAIはモデルの意思決定プロセスの透明性に関わるものです。

C)特徴抽出を常に手動で行う: 特徴抽出が手動であるかどうかは、XAIの主要な側面ではありません。XAIはどのように特徴が抽出されるかではなく、モデルの意思決定プロセスがどのように解釈できるかに焦点を当てます。

D)機械学習の黎明期に提案された仮想の概念を示す用語である: XAIは近年になって注目され始めた概念であり、機械学習の黎明期のものではありません。XAIの研究は特に、ディープラーニングとその複雑さが増すにつれて重要性を増しています。

これらの選択肢から、説明可能AIの説明として最も適切なのは「A)予測結果や推論のプロセスの解釈可能性が高い」です。説明可能AIは、AIモデルの動作を透明化し、人間が理解しやすい方法でモデルの意思決定を説明することを目指しています。

例題Q11.の回答

それぞれの説明に対応する統計学の用語を確認してみましょう。

(あ) 相関の程度を表す指標: これは「相関係数」です。相関係数は、二つの変数間の線形関係の強さを示す指標です。

(い) 他の変数の影響を除いた相関の程度を表す指標: これは「偏相関係数」です。偏相関係数は、他の変数の影響を取り除いた上で、二つの変数間の相関関係を測定します。

(う) 偏差積の全データについての平均: これは「共分散」です。共分散は二つの変数の偏差の積の平均値であり、それらがどのように一緒に変動するかを示します。

(え) 偏差を2乗したものの平均: これは「分散」です。分散はデータの偏差を2乗したものの平均値であり、データの散らばり具合を示します。

以上の説明に基づき、正しい組み合わせは次のようになります:

A)(あ) 相関係数 (い) 偏相関係数 (う) 共分散 (え) 分散

したがって、最も適切な選択肢は「A)(あ) 相関係数 (い) 偏相関係数 (う) 共分散 (え) 分散」です。

例題Q12.の回答

6面体のサイコロの出る目の期待値は、各目(1, 2, ..., 6)の確率にその値を掛けたものの合計です。ここで、各目が出る確率は 1/6なので、期待値は次のように計算されます:

期待値= 1/6 * 1 + 1/6 * 2 + 1/6 * 3 + 1/6 * 4 + 1/6 * 5 + 1/6 * 6 = 3.5
したがって、最も適切な選択肢は「C)3.5」です。 ​

例題Q13.の回答

個人情報保護法に関する説明の中で最も不適切な選択肢を評価します。

A)メールアドレスのユーザー名及びドメイン名から特定の個人を識別することができる場合、そのメールアドレスは、それ自体が単独で個人情報に該当する: これは一般的に正しいです。メールアドレスが特定の個人を識別できる場合、それは個人情報とみなされます。

B)個人情報は新聞やインターネット等で既に公表されているとしても、個人情報保護法の保護の対象となり得る: これも正しいです。公開されている情報であっても、それが個人を識別できる場合、個人情報保護法の対象となることがあります。

C)外国に居住する外国人の個人情報は、個人情報保護法の保護の対象となり得る: これは国によって異なりますが、多くの国の個人情報保護法は国内で取り扱われる個人情報に適用されます。したがって、外国人の情報も含まれる場合があります。

D)顧客との電話の通話内容を録音したものは、通話内容から特定の個人を識別することができない場合、顧客IDなどで顧客データベースと突合する事が出来たとしても、個人情報に該当することはない: これは不適切な説明です。通話内容から個人を特定できなくても、顧客IDなど他の情報と組み合わせることで個人を特定できる場合、それは個人情報に該当します。

したがって、最も不適切な選択肢は「D)顧客との電話の通話内容を録音したものは、通話内容から特定の個人を識別することができない場合、顧客IDなどで顧客データベースと突合する事が出来たとしても、個人情報に該当することはない」です。

例題Q14.の回答

顔認識技術に関する倫理的問題に関して、選択肢を検討してみましょう。

A)顔認識技術については、肌の色が濃い人や女性において認識精度が下がるサービスが存在すると指摘されている。この原因として、学習に用いたデータセットの偏りが指摘されている: これは事実であり、顔認識技術に関する重要な倫理的問題の一つです。

B)顔認識技術の利用にあたっては日本では個人情報保護法を遵守する必要があるが、それだけではなくプライバシーの観点から同法を超えた対応や措置を実施することが重要な場合がある。このような対応や措置の参考として、経済産業省が公表する「カメラ画像利活用ガイドブック」が存在する: これも正しい情報です。法律を遵守するだけでなく、プライバシー保護のための追加的な措置が必要な場合があります。

C)IBM社は2020年6月に、顔認識技術を利用することの倫理的課題などを原因として、今後警察に汎用顔認識技術の提供を行わないことを表明した: これは実際に行われた声明であり、顔認識技術の倫理的な側面に対する重要な対応です。

D)アメリカでは都市によっては条例等により顔認識システムの利用を禁止しているが、その禁止対象は民間企業による利用ばかりではなく、警察などの公共性の高い公的機関による利用も含めるものが主流である: これは実際に起こっている現象です。多くの都市では、顔認識技術の使用に対して規制を設けていますが、これは民間企業だけでなく公的機関にも適用されることがあります。

これらの選択肢から、不適切なものを選ぶとしたら、選択肢はすべて顔認識技術に関連する重要な倫理的問題や対応を正確に述べているため、不適切な選択肢は存在しません。それぞれの選択肢は、現代の顔認識技術の利用に伴う倫理的課題や対策について適切な情報を提供しています。

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1