私たちの「生成AIブートキャンプシリーズ」の最初のウェビナー『モデルとビジネスのギャップを埋める: Firstmark Capital、Hugging Face、Stochastic』で、DataikuのCEO、Florian Douetteauは、他のパネリストにこれまで見てきた大規模言語モデル(LLM)に関する最大の誤解について質問しました。
神話: 生成AI=AI
““1つ目の誤解は、より大きなモデルが常により良いパフォーマンスを発揮するということ。しかし、これは正確ではありません。この考え方は次第に古くなってきています。2つ目の誤解は、“微調整は必要ない、単にプロンプトエンジニアリングだけをすればいい”というもの。具体的にその意味が何か、多くの人々は知らないようです""
- ジュリアン・サイモン、チーフエバンジェリスト、Hugging Face
Firstmark Capitalのマネージングディレクター、マット・タークは、「生成AIはただのAIです。ChatGPTは大変注目を浴びており、AIを新たに学ぼうとする多くの人々がいます。これは素晴らしいことで、ChatGPTによってAIをより広く知られるきっかけになりました。しかし、多くの人々はそこで結論を急いでしまい、それだけが全てだと考える傾向にあります。Dataikuはその良い例で、AIは長期間、多くの企業で大規模に展開され、実際のROIを提供してきました。そして、これらのユースケースが消え去ることはないでしょう。実際、それは企業全般でより一般的になっています。さらに、AIや生成AIは商品化が進み、AIはもはや高度な技術としてではなく、APIとして提供されており、誰でもツールを容易に利用できるようになっています。これは2016年から2017年にかけてのTensorFlowの議論を反映しています。」と述べました。
神話: LLMは何でもこなし、何でも解決できる
““モデルのトレーニング”や“LLMのトレーニング”と言う際、人々は実際にモデルに対して何もしていないのに、RAG(Retrieval Augmented Generation)システムの更新をモデルのトレーニングとして言及することがあります。しかし、実際にはモデルに変更は加えられておらず、単にデータベースを更新したり、インデックスを再構築したりしているだけです。そして、“トレーニング”という用語が使われる時、それが実際のトレーニングプロセスを意味するわけではないことが多いです。さらに、LLM(Large Language Models)が何でもでき、全ての問題の答えを導き出すと考える人もいますが、これは正しくありません。BERTや他の小さいモデルを多くのアプリケーションで使用することができ、大規模モデルの使用は過度でリソースの無駄に繋がります""
- グレン・コー、CEO、Stochastic
以下は、これらの主要な神話(およびその他のいくつか)をわかりやすいインフォグラフィックで強調しています:
神話の検証をさらにいくつかのステップで進めて見てみましょう
神話: AIは邪悪であり、人類にとって脅威である
AIツールやシステムの開発者、利用者として、私たちは注意を怠ると、AIの実験やプロジェクトが自身にリスクをもたらす可能性があります。伝統的なAIシステムや生成AIシステムを大規模に構築する際には、組織が利用者がそのテクノロジーを適切にトレーニングできるようにする責任があります。実際、AIへの投資と利用の増加には以下のようなリスクが伴います:
• AIシステムは、設計や意図とは異なる不適切な方法で本番環境で動作する可能性がある
• モデルは、データ内の偏見を再現または増幅する可能性がある
• 自動化の増加は、エラーや不公平な結果の検出および修正の機会を減少させる可能性がある
2023年6月のDataikuとDatabricksによる400人のシニアAI専門家への調査によれば、多くの産業でAIの未来に対する不安が増大していることが明らかになりました。生成AIの登場により、私たちは確かに不確実な状況に直面しています。この懸念を払拭し、興奮に変えるには、厳格な規制の導入と、多くの企業やチームでの堅実な責任あるAIポリシーの策定が求められます。
私たちの最新のebookでは、生成AIのリスクについて詳述し、信頼性、説明責任、公平性、透明性(RAFT)フレームワークを紹介しています。このフレームワークは、伝統的なAIシステムや生成AIシステムにどのように適用できるかを示しています。フレームワークのコピーはこちらから入手できます。
広範囲にわたり、責任あるAIは、AIガバナンスフレームワークに組み込まれるべきであり、組織はAIの導入を拡大する際に、効率的かつ準拠性を持った一貫したベストプラクティスを構築すべきです。例えば、AIガバナンスポリシーでは、AIプロジェクトがライフサイクル全体でどのように管理されるべきか(私たちがMLOpsと呼ぶもの)、および特定のリスクへの対処方法(責任あるAI)について詳述されます。組織は以下の取り組みが必要です:
• 内部ステークホルダー向けに解釈可能性を提供する
• データとモデルのバイアスをテストする
• 意思決定の過程を文書化する
• モデルが説明可能であることを確認し、問題やリスクを正確に特定できるようにする
• 透明性を重視したデータ文化や多様な思考を促進する
さらに、AIは多くの分野で積極的な成果をもたらしています。例えば、Dataikuの顧客であるVestasは、持続可能なエネルギーのリーダーとして、風力エネルギーやハイブリッドプロジェクトの設計、製造、設置、開発、サービスを行っています。Vestasは、88ヶ国で160GW以上の風力タービンを設置し、15億トンのCO2排出を削減してきました。Dataikuのツールを活用して、配送コストを11-36%削減することができました。
神話: ロボットがすべての仕事を奪う
AIは、人間の労働力を拡張し、チームが新しい方法でより賢く働くのに役立つツールです。生成AIに関して、「センタウル」アプローチという、名チェスプレーヤーのギャリー・カスパロフが提唱した考え方が参考になります。半人半馬の神話的な生物にちなんで名付けられたこのアプローチは、AIが深く組み込まれたタスクに人間とAIの能力を組み合わせることを意味します。
ここでは、AIは人間の潜在能力を拡張する非常に貴重なツールとなり、それを置き換えるのではなく拡張します。さらに、新しい仕事がこの時代に生まれるでしょう。例えば、プロンプトエンジニアという新しい職種が挙げられます。彼らは、人々からの質問に対して関連性のある応答をAIが生成するよう訓練します。
““人間の才能は現在も非常に貴重です。目指すべきは仕事の削減ではなく、より効率的な仕事の進め方です。””
- リトゥ・ジョティ、グローバルAIリサーチリード、IDC
神話: AIはデータ関連の人々だけのもの
私たちDataikuは、AIは職名や組織の大きさに関係なく、全ての人々にとってのものであると確信しています。私たちは10年以上にわたり、データ専門家と非データ専門家の真の協力のアイデアについて話してきました。データの民主化や生成AIの普及のためには、特定の専門家だけがツールや技術を持つ状態を避ける必要があります。
良いニュースは、異なる専門分野のチーム(つまり、ビジネスの専門家がデータの専門家と協力するチーム)が、今日のほとんどの企業では当たり前のことになりつつあるということです。これは次のAIの波にちょうど間に合ったことです!私たちがDatabricksと行った2023年6月の調査では、驚くべきことに、77%の組織が、異なる専門分野のチームで高度な分析開発チームを組成されていると回答しました。
様々な背景を持つ人々や強み、スキルセットを受け入れ、彼らがガバナンスされた整理された方法で作業を統合できるようにすることで、適切なツールはこうした種類の課題を軽減し、チームがより迅速かつ効果的にAIプロジェクトを開発できるようにします。Dataikuプラットフォームは、水平なワークストリーム(同じくらいのスキル、ツールセット、トレーニング、日々の責任を持つ他の人々と協力する人々)と垂直なワークストリーム(異なるチーム間で働く人々)の両方を、コミュニケーションを可能にする完全な機能セットを介して簡単に実現します。技術的な専門家と非技術的な専門家の両方がデータを自分たちの方法で扱うための手段を提供します。
すべてをまとめると
生成AIの世界を理解する上で、いくつかの誤解を払拭することが必要です。生成AIは単なる大きなモデルやChatGPT以上のものです。そして、生成AIが普及することが仕事の終焉を意味するわけではありません。むしろ、それは人間の能力を拡張し、新たな機会をもたらすものです。AIはデータの専門家に限定されるものではなく、異なる分野の協力を必要とするチームスポーツです。私たちがこの新しい技術の舵取り役として、神話を解消し、責任あるAIエコシステムを構築することで、生成AIの真の潜在力を引き出すことができるでしょう。
ウェビナー全編を視聴:モデルとビジネス間のギャップを埋める
生成AI技術の最先端とビジネスでの使用例の間にはまだ大きなギャップがあります。この技術が企業でどのように活用されるのかを明らかにし(途中で生成AIの神話も解消しましょう)。ウェビナーを視聴する。