結果
点数が低いですが、無事に合格した。
公式サイトの動画を観るのが勉強になった。
そして、法律に関連することも意外に面白かった。(元々は無関心だった)
資料
https://www.jdla.org/certificate/generativeai/#toc1
https://ai-wonderland.com/entry/jdla-generativeai-test
補足
大規模言語モデルの性能評価について知っている。
リーダーボード
リーダーボードは、異なるモデルやアルゴリズムが特定のタスクやベンチマークにおけるパフォーマンスを比較するためのランキングシステムです。研究コミュニティや企業は、自らのモデルを試験し、それらの結果をリーダーボードに投稿することで、他のモデルや過去のアプローチとの比較を行います。これにより、最も精度が高い、最も効率的、あるいは特定のタスクに最も適したモデルを一目で識別できるようになります。
ベンチマーク
ベンチマークは、モデルの性能を定量的に評価するための標準化されたテストセットや評価基準を指します。ベンチマークは、特定のタスク(例えば、自然言語理解、翻訳、要約、質問応答など)に対するモデルの能力を測定するために設計されています。評価には通常、精度、リコール、F1スコアなどのメトリクスが使用され、モデルがどれだけ正確にタスクを実行できるかを示します。
ベンチマークは、一般に公開されており、誰でもアクセスして使用できるため、研究者や開発者が自分のモデルを客観的に評価するのに役立ちます。さらに、異なるモデル間での比較を可能にするため、ベンチマークは固定されたデータセットや評価手順に基づいています。
推論の効率化(動向)
推論の際にAIモデルは、リアルタイムで与えられたデータに対して判断を下します。
より強力なコンピューター・チップを開発することは、性能を向上させる明らかな方法です。IBM Researchの重点分野のひとつは、ディープラーニングを支配する数学演算である行列乗算に最適化されたチップを設計することです。IBMのプロトタイプ人工知能ユニット(AIU)やアナログAIチップの研究は、この種の数値演算に最適化されたハードウェアの例です。
AIモデルをより高速に実行させるもう一つの方法は、モデル自体を縮小することです。不要な重みを刈り込む(プルーニングする)ことと、量子化によってモデルの精度を下げることは、推論時に優れた性能を発揮する、より効率的なモデルを設計するための2つの一般的な方法です。
推論を高速化する3つ目の方法は、AIモデルを、AIタスクを解決するためにさまざまなハードウェア・バックエンドが実行できる処理に変換するミドルウェアのボトルネックを取り除くことです。これを実現するために、IBMはオープンソースのPyTorchコミュニティーの開発者と協力しました。
利活用(動向)
RAG (Retrieval-Augmented Generation)の利用:
RAGは、外部の知識ベースから事実を検索して、最新の正確な情報に基づいて大規模言語モデル(LLM)に回答を生成させることで、ユーザーの洞察をLLMの生成プロセスに組み込むというAIフレームワークです。
エージェント:
生成 AI App Builder は、Dialogflow CX 上に構築されたエージェントを提供します。この機能を使用すると、ウェブサイトのリンクまたはドキュメント(データストア)を指定して、Google がコンテンツを解析し、大規模言語モデルを搭載した仮想エージェントを作成します。これは、データストア ハンドラと呼ばれる特別な状態ハンドラで実現されます。 これらのデータストア ハンドラを使用して、エージェントはエンドユーザーとコンテンツに関する会話を行うことができます。
コード生成、
外部ツール呼出し
リスク(特徴)
悪用
誤情報の拡散
敵対的プロンプト
特定の生成AIサービスへの依存
環境問題