数週間前、OpenAIは最新かつ最先端のトランスフォーマーベースの基盤モデルであるGPT-4oを発表しました。GPT-4oの "o "は "omni"(ラテン語で "every")を意味し、テキスト、音声、画像、動画が混在するプロンプトを処理する能力を反映しています。この強力なマルチモーダル機能はAIコミュニティを魅了し、生成的で会話的なAI体験の新たな基準を打ち立てました。
しかし、残念なことに、今日のペースの速い技術状況では、注目度は流動的なもので、リーダー的地位やメディアの優位性を長く維持させることは困難です。OpenAIがGPT-4oモデルで私たちを感動させたわずか数日後、Googleは、ライブビデオと音声プロンプトを使ってPixelスマートフォンに情報を提供するGemini 1.5 Proモデルを紹介するビデオを公開しました。1月のMistral AIのMixtral 8x7B、そして4月のMixtral 8x22Bの登場を覚えていますか?3月のAnthropicのClaude 3と4月のMetaのLlama 3 splashの発表はどうだったでしょうか?
これらの画期的なモデルは、いずれもこの半年間だけでも話題となりました。月を追うごとに、新しいモデルの最先端化が進み、スポットライトを浴びています。データサイエンティストまたは企業のデータリーダーとして、「分析麻痺」に苦しんでいることを誰も責めることはありません。 生成AIを活用したアプリケーションを今日のベストモデルの上に構築するべきか、それとも、より正確で、パワフルで、ユースケースに適した新しいモデルが登場するまでもう少し待つべきでしょうか?
今波に乗るべきか、待つべきか?
別の言い方をすると(そして間違いなく私の近々予定されているビーチへの旅行の期待に影響されていますが)、問題はこうです:誰もが生成AIの勢いを活用する必要があることを知っていますし、そうしなければ取り残されるリスクがありますが、モデル革新の波が絶え間なく激しく押し寄せてくる中で、正しい波を選べていると確信できるでしょうか?ただ辛抱強く、事態が落ち着くのを待つべきでしょうか?
シンプルな答えは、「待つな」ということです。私たちは今、大手AIプレーヤーによる壮絶なモデル発表合戦の真っ只中におり、新規参入企業も次々と現れています。2022年から2023年にかけてリリースされるモデルは[120%増という驚異的な伸びを示しています。HuggingFaceで利用可能な何十万ものオープンソースモデルを考慮に入れてもいません!モデルはより高性能に、より専門的に、よりマルチモーダルになってきています。
しかし、いつまでも地平線を見ているわけにはいきません。エグゼクティブの88%がすでに生成AIに投資しており(MIT Technology Review InsightsのDatabricksとの共同レポートによる)、完璧な波を待つことは、よくても競争上の不利になり、最悪陳腐化する戦略です。
「この10年の終わりには、2種類の企業が存在するだろう...AIを完全に活用している企業と、廃業している企業だ。」
- ピーター・H・ディアマンディス、Xプライズ財団創設者兼会長、シンギュラリティ大学共同創設者兼エグゼクティブ・チェアマン
単一技術への過度の依存のリスク
とはいえ、単一のモデルに頼りすぎるのも危険です。ヘルスケアにおけるIBMワトソンの有名な事例を見てみましょう: IBMは、他のモデルやデータソースとの統合や相互検証を行うことなく、ワトソンのAIモデルを中心に商用ヘルスケア・アプリケーションを開発しました。ワトソンが不正確な、あるいは安全でない治療法を推奨することがあるという報道がなされると、市場の信頼は低下し、IBMは沈没した開発コストと技術的負債からの回復に苦労しました。
たとえOpenAIのGPT-4oのように素晴らしいものであっても、単一のモデルに過度に依存することが賢明でないのと同様に、戦略を単一のプロバイダーに固定することも同様に危険です。AIイノベーションのリーダーとしてのOpenAIの地位にもかかわらず、そのガバナンスとリーダーシップに関する最近の精査は、投資家や企業採用者の間で懸念を引き起こしています。この急速に変化する状況を乗り切り、運用上のリスクを軽減するためには、技術的な進歩や、セキュリティ、倫理、組織の安定性に関する懸念など、必要に応じてAIサービスをシームレスに切り替えることができるように、ベンダーのロックインを避けることが重要です。
LLMメッシュでスマートな波乗りを
良いニュースとして、バランスの取れたアプローチがあるということです。将来の変化に備えながら、ソリューションを構築することができます。DataikuのLLM Meshでは、現在利用可能な最高のモデルを使用してAIアプリケーションを開発することができます。
柔軟なAI開発
LLM Meshは、LLMプロバイダーとエンドユーザーアプリケーション間の抽象化レイヤーとして機能します。LLM Meshは、開発と反復の段階において、異なるLLM間の迅速な「ウェーブホッピング」を可能にします。これにより、データ科学者やAIエンジニアは、特定のユースケースに対して最も正確な結果を提供するモデルを評価し、コストを見積もり、性能と価格の間で十分な情報に基づいたトレードオフを行うことができます。
統合と管理の簡素化
インフラの不可知論とプラットフォームの相互運用性というDataikuのコアバリューに沿って、LLM Meshはバックエンド接続とAPI要件の複雑さを抽象化し、プロジェクトが本番稼動した後でも、あるモデルから別のモデルへの移行を簡単にします。つまり、パイプラインとユーザー・アプリケーションを安定させながら、新しい進歩に合わせてバックエンドを順応・進化させることができるのです。
要約すると、LLM Meshは、AIアプリケーションを構築するための柔軟で将来性のある方法を提供します。Dataikuを利用することで、今日の最先端のテクノロジーに自信をもって乗ることができ、同時に次のテクノロジーにも対応できるため、継続的なイノベーションと競争上の優位性を確保することができます。
Dataikuによる生成AI
Dataikuを使用することで、チームはラボから企業規模で堅牢かつ安全な生成AIアプリケーションの作成に移行することができます。Dataikuは、エンタープライズグレードの開発ツール、事前に構築されたユースケース、AIを搭載したアシスタントを提供し、誰もが生成AIの可能性を最大限に引き出せるよう支援しています。生成AIのためのDataikuに関する詳細はこちら。