■歴史
AI→ML→DL→生成AI(LLM含む)
■今の生成AIのハイプサイクル
生成AI・LLMは過度な期待のピーク期
→弊社はサービス化もできていない。
■日本における未来志向型のハイプサイクル
NLP/LLMは黎明期・過度な期待のピーク期、今から特性を理解しサービス化を考えないといけない。
そもそも
■AI(人工知能)
・AI:Artificial Intelligence
※Artificial(人工的・人造の)+Intelligence(知能・知性)
・人が実現するさまざまな知覚や知性を人工的に再現するもの。
・AGI(Artificial General Intelligence:汎用的人工知能)ではない。
※「あらゆる問題に応えられる(答えられる)賢いAIがすでに存在する」わけではない。
■マシンラーニング(機械学習)
・大量のデータを反復して読込ませて学習させることことで、機械(仕組み・アルゴリズム)に判断をさせる仕組み。
※データ分析手法の一つ。
・機械(仕組み)に大量のデータを反復して読み込ませてパターンを見つけたり、判断したり、分析したりでき量に学習させる。
・学習方法が数種類ある。
※「教師あり学習」「教師なし学習」「強化学習」
※教師あり学習
最初のうち、マシンに正解を示しながら多くのデータを与えて、訓練を通じてマシンが正解を示すことができるようにする学習方法です。例えば、画像が「猫」なのか「ねずみ」なのかを判別させたい場合、「猫」と「ねずみ」のラベルを付けた画像を大量に与えることでそれぞれの特徴を学習させていきます。するとマシンは「猫」と「ねずみ」の見分け方を覚え、やがてラベルの付いていない画像を与えても正解を示せるようになります。
※「教師なし学習」
マシンに正解を与えることはしません。ラベルの付いていないデータを大量に与えて、それぞれのデータの特徴、全体の傾向やルールを学習させていきます。その結果、マシンはデータを特徴などによってグループ分けし、新しく与えられたデータがどのグループに属するかを判別できるようになります。
※「強化学習」
教師あり学習のやり方に、マシンが出した結果に対して点数を付けるという手法を加えることで最良の方法を学習させる方法です。マシンに報酬もしくは罰を与えることで、よりよいアウトプットを得られるようになります。
■ディープラーニング(深層学習)
・機械学習の「教師あり学習」の1種である。
・共通点を自動抽出して柔軟な判断を行う。
No. メリット デメリット
1 マシンラーニング 低コストで少ない工数 ブラックボックス化問題
難しい作業を短時間で実行
2 ディープラーニング コスト削減と効率化 学習に時間がかかる
機械学習では難しい複雑な処理が可能 大量のデータが必要
開発コストが高い
※転移学習
・機械学習の手法の一つであり、「別のタスクで学習された知識を別の領域の学習に適用させる技術」のことを指します。たとえば、大量の犬の画像データと少量の猫の画像データがあり、犬・猫それぞれの種類判別モデルを作成するとしましょう。
・通常の機械学習では、犬・猫それぞれ別にモデルを作成することになります。犬の画像データは大量に用意されているため問題ありませんが、猫の画像データは高精度に分析するためのデータ量が整っていません。つまり、猫の判別に関しては精度が落ちてしまう可能性があるのです。
・犬の種類判別によって得られた知識を、猫の種類判別モデルにも適応させることができます。そのため、画像データが少ない猫の判別も、高精度に行えるようになるのです。
※転移学習と強化学習の違い
転移学習と強化学習は以下のように、目的や特性が異なります。
転移学習:既存のタスクで学習した知識を新しいタスクに適用する(知識の転移)
強化学習:エージェントが環境と相互作用しながら、報酬を最大化するような行動を学習する(行動の最適化)
強化学習は、エージェント(自己学習や自己判断を行うプログラムやシステムのこと)が環境と相互作用しながら、報酬を最大化するような行動を学習する手法です。つまり、試行錯誤を通じて最適な行動を見つけ出すことが目標となります。
■自然言語処理(NLP:Natural Language Processing)
・人が話したり書いたりする時に使う言葉(自然言語)の内容を解析・処理する技術
・前準備として「MARC(機械可読目録)」および「コーパス」の構築が必要です。
・MARCとは、図書館や資料館に貯蔵されている情報を自然言語処理するために設計された「データフォーマット(通信規格)」。
※本においては、大学などで使用されている「OPAC」などが有名なMARC。
・コーパスとは、文章構造をコンピュータで分析するための「データベース」
※自然言語処理において、MARCは「辞書」として定義され、コーパスは「言語全集」と言われています。
・自然言語処理の仕組みを4つの工程(形態素解析、構文解析、意味解析、文脈解析)に分かれる。
■マシンラーニングとNLPの活用事例
・DeepL翻訳:機械翻訳
・CHIVOX:機械翻訳スピーキング評価AI
※学習者のスピーキングを「発音」「流暢さ」「内容」「文法」等の項目で評価・診断し、改善点フィードバックを行う音声評価AI
・BERT:検索エンジンGoogle
※BERTは、Bidirectional Encoder Representations from Transformers の略で、「Transformerによる双方向のエンコード表現」と訳され、2018年10月にGoogleのJacob Devlinらの論文で発表された自然言語処理モデル
■LLM(大規模言語モデル)※Large Language Models
・非常に巨大なデータセットとディープラーニング技術を用いて構築された言語モデル。
・自然言語処理の1分野で使用される人口知能ので生成AIに含まれる。
・LLMは主にテキストデータを処理し、与えられたテキストに基づいて予測や応答を生成する能力を持っています。 一方、生成AIにはテキスト生成に特化したものや、画像生成に特化したものなど、さまざまな種類があります。
・言語モデルのうち「計算量」「データ量」「モデルパラメータ数」の3要素を著しく大規模化したもの
・2017年にTransformerという深層学習モデルが登場したところから始まります。Transformerとは、「Attention Is All You Need」という論文で2017年に発表された深層学習モデルです。
・回答の正確さに保証はない。
・代表例としては、2018年にGoogleが発表した「BERT」や、2020年にOpenAIが発表した「GPT-3」などが挙げられる。
・2022年12月に発表された「ChatGPT」は、2022年初頭にトレーニングした「GPT-3.5シリーズ」をチャット(対話)向けにファインチューニングしたものであり、大規模言語モデルの応用例の一つだ。
■言語モデル
・文章の並び方に確率を割り当てる確率モデルです。
・より自然な文章の並びに対して高い確率を割り当て、文章として成立しない並びには低い確率を割り当てます。
※「言語モデル」自体には古い歴史がありますが、2018年に「BERT」というディープラーニング技術を用いた新しいアーキテクチャによる言語モデルがGoogleより発表。
■LLM以前
・対話AIはモデルを作る必要があった。
・対話に特化した学習(ファインチューン:Fine-tune、ファインチューニング:追加学習)が必要だった。
・教師データセットが必要だった。
■LLM以降
・言語モデルの「次に来る単語を予測する機能」を使えるようになった。
■LLMの課題
・情報の誤解釈や誤った回答(Hallucination)
・個人情報の取り扱い
・莫大なコスト
LLM(大規模言語モデル)とは?生成AIとの違いや活用事例・課題 | DOORS DX (brainpad.co.jp)
大規模言語モデル(LLM)とは?コンタクトセンターへの影響と海外の活用事例 | 株式会社TMJ
■LLMを使ったビジネス事例
LLM(大規模言語モデル)とは?生成AIとの違いや活用事例・課題 | DOORS DX (brainpad.co.jp)
大規模言語モデル(LLM)とは?コンタクトセンターへの影響と海外の活用事例 | 株式会社TMJ
KDDIエボルバ、社員4800人が対話型AIを実務で利用、コンタクトセンター事業にも活用予定 | IT Leaders (impress.co.jp)
PKSHAと三井住友トラストHD、LLMを活用したコンタクトセンターDXに着手 - ZDNET Japan
コンタクトセンターのリーダーは生成系 AIにどう備えるか | Amazon Web Services ブログ
生成AIで電話応対を効率化 最大54%の時間削減に成功 ELYZAとJR西日本のコンタクトセンターの事例 - ITmedia NEWS
【2023年9月更新】コールセンターやカスタマーサポートで使えるChatGPTのプロンプト集 | カスタマーサポートDXマガジン (karakuri.ai)
※基盤モデル(Foundation Model)
・一般的に教師なし学習で大量の生データでトレーニングされた AI ニューラルネットワーク。
・大量のデータを使ってトレーニング(=事前学習、一般的にはラベルなしデータを用いた自己教師あり学習)する。
・その後、幅広い下流タスクに適応できるように再トレーニング(基本的にはファインチューニング)する。
・上記段階の訓練工程を踏んだ機械学習モデルのことである。
・1つの基盤モデルで多様なタスクに適応できること(マルチタスク)が大きな特徴。
※参考サイト
NTTドコモ
生成 AI を活用した業務の DX 推進および付加価値サービス提供に向けた実証実験を開始 ~生成 AI の安全性と利便性の向上をめざす「LLM 付加価値基盤」を開発
https://www.docomo.ne.jp/binary/pdf/info/news_release/topics_230821_00.pdf
NTT DATA
人工知能(AI)とは
https://www.nttdata.com/jp/ja/services/data-and-intelligence/001/
株式会社 日立ソリューションズ・クリエイト
押さえておきたい機械学習とディープラーニングの違い
https://www.hitachi-solutions-create.co.jp/column/technology/machine-learning-deep-learning.html>
Zendesk Blog
誰でも分かるディープラーニングと機械学習の違い
https://www.zendesk.co.jp/blog/deep-learning-vs-machine-learning/
Aismiley
機械学習とディープラーニング(深層学習)の違いとは?
https://aismiley.co.jp/ai_news/what-is-the-difference-between-deep-learning-and-machine-learning/
業務改善ノートTMJ SECOM Group
大規模言語モデル(LLM)とは?コンタクトセンターへの影響と海外の活用事例
https://www.tmj.jp/column/column_21997/
Gartner
Gartner、「生成AIのハイプ・サイクル:2023年」を発表-2026年までに、企業の80%以上は生成AIのAPIを使用して、生成AIに対応したアプリケーションを本番環境に展開するようになる
https://www.gartner.co.jp/ja/newsroom/press-releases/pr-20231012
Gartner
人工知能 (AI) のハイプ・サイクル:2023年
https://www.gartner.co.jp/ja/articles/what-s-new-in-artificial-intelligence-from-the-2023-gartner-hype-cycle
iMagazine
生成AIは「主流まであと2~5年」の予測 ~ガートナーが日本版「インフラ・テクノロジのハイプ・サイクル:2023」発表
https://www.imagazine.co.jp/gartner-japan-infra-hype-cycle-2023/
DOORS DXMedia
LLM(大規模言語モデル)とは?生成AIとの違いや活用事例・課題
https://www.brainpad.co.jp/doors/knowledge/01_about_llm/
NRI
大規模言語モデル
https://www.nri.com/jp/knowledge/glossary/lst/ta/llm
KARAKKURI
大規模言語モデルがもたらすカスタマーサポートの未来
https://karakuri.ai/column/chatgpt/cs-future-with-llm/
@IT
基盤モデル(Foundation Model)とは?
https://atmarkit.itmedia.co.jp/ait/articles/2302/27/news014.html
※↑の連載が勉強になる。
nVIDIA
基盤モデルとは?
https://blogs.nvidia.co.jp/2023/06/19/what-are-foundation-models/
AWS
基盤モデルとは何ですか?
https://aws.amazon.com/jp/what-is/foundation-models/
Diamond Online
大規模言語モデルを開発できない日本はどうなるのか?
https://diamond.jp/articles/-/326013