言うまでもなく、AI のスケーリングに関しては、ツール、テクノロジ、および開発やテストから実際のビジネスにスムーズかつ効率的に移行できることが重要な要素であり、ITチームが不可欠な役割を果たすのはそのためです。しかし、Dataikuが行った200人のIT専門家を対象に実施した調査によると、彼らの最大の懸念事項は、当然のことながら、依然としてセキュリティでした。
監査可能性と権限管理の適切なバランスを見つける
信頼性とセキュリティを確保する最も簡単な方法は、最小限の変更を加えること、アクセスを許可するのではなく制限すること、新しいツール (特にデータへのアクセスの増加を促進するツール) を採用するのに注意を払うことです。 言い換えれば、データの民主化を通じてAIをスケールさせるという考えそのものが、多くの従来のセキュリティ原則に反するため、ITチームが慎重になるのは当然です。
ただし、注意しすぎると、シャドーIT (つまり、中央のIT組織を回避するアプリケーション、インフラストラクチャ、またはプロセスを開発するビジネスユニット) が台頭する可能性があります。これは、企業がAIの取り組みを迅速に拡大したい場合、特にリスクとなります。したがって、セキュリティに関しては一歩下がって、民主化のコンテキストで何が理にかなっているのか、ITチームが適切な量の制御を維持しながらビジネスに自由を与える方法を判断するために、会話に参加することが重要です。
AIイニシアチブの民主化に関して言えば、セキュリティには監査と権限管理という2つの要素があり、それらは中間をスライド式にした両端と見なすことができます。監査に完全に依存している組織は、無制限のアクセスを許可し、セキュリティを確保するためにそれらの監査機能に依存しています。一方、権限管理に完全に依存している組織は、ソースの何に誰がアクセスできるかを厳密に制御します。
監査はセットアップの問題であり、システムを構築する際の固定費であることを認識することが重要です。一方、権限には、固定費と一定の管理コストの両方があり、多くの内部プロセスとツールが必要です。AIのスケーリングに関して言えば、2つの間の適切なバランスを見つけることは、ITチームとそのマネージャーにとっての検討課題となります。
監査能力/許可管理の軸に沿った多くの立場は理にかなっていますが、それはビジネスが何であるか、どのような種類のデータを持っているかによって異なります (たとえば、Webサイトのデータは財務データよりも機密性が低く、ジェットエンジンの開発データはその2つの間のどこかにあるなど)。また、ビジネスチームとITチームが喜んで行うトレードオフとは何か。
理想的な世界では、Dataiku の数百のクライアントに基づいて、この理想的なバランスとは何かを説明し、課題を解決します。しかし現実には、AIを拡張するには、ITマネージャーが独自の費用対効果分析を実施し、特定のシナリオに適した方法を決定する必要があります。 (このバランスは、ビジネスユニットごとに異なる場合さえあります)
使用するテクノロジーの決定
多くの場合、ITおよび ITチームによるイノベーションは、機械学習(ML)自体のイノベーションよりも AIのスケーリングに重要となります。つまり、最終的には、ほとんどのビジネス上の問題は、最新かつ最高で最も高度な ML技術 (ディープラーニングやニューラルネットワークなど) によって解決されるのではなく、ビジネス上の問題を解決するためにスマートな方法で適用される比較的古典的な技術によって解決されるということです。ただし、IT部門がデータ処理、ストレージなどにどのテクノロジを選択するかによって、チームがAIイニシアチブを実行できる速度に大きな違いが生じる可能性があります。
そうは言っても、ITマネージャーが革新と新しいテクノロジを受け入れることは重要です。同時に、どのテクノロジを選択するかについては慎重に選択する必要があります。ビジネスが何を達成しようとしているのか、流行のテクノロジーが何のために作られているのか (そして、何ができるのか、できないのか)を深く理解することが重要です。
また、テクノロジーの革新的な選択を行うことがAIのスケーリングの鍵となる可能性がありますが、ITマネージャーも合理的である必要があります。太陽の下ですべての新しいテクノロジーに飛びつくことは、AI用の一貫したプロセスとシステムを開発しようとしている人にとって混乱を招く可能性があります(DataikuのようなAIプラットフォームなどの抽象化レイヤーが上にある場合でも)。
エンドツーエンドで購入するか、つなぎ合わせて購入するか
今日、ほとんどの組織は、AIプラットフォームソリューションを完全に構築することを検討していません。最大の理由の1つは、Googleによって特定されたMLシステムの隠れた技術的負債によるものであり、この取り組みの複雑さを示しています。言い換えれば、非常に多くの「接着剤」 (単純にMLモデルを構築するというコア機能の外にある非常に多くの機能)が存在するため、それらすべてをゼロから構築することで、AIの取り組みのスケーリングを真に可能にするAIプラットフォームを実現することができます。
今日のほとんどの組織にとって、最新のAIプラットフォームを構築する(したがって、企業全体のAI戦略を拡張する)ためには、次の2つの選択肢があります。
- ローデータの取り込みから ETL、モデルの構築、それらのモデルと AIシステムの運用化、およびそれらのシステムの監視とガバナンスまで、ライフサイクル全体をカバーするデータサイエンス、ML、AI 用のエンドツーエンドのプラットフォームを1つ購入する
- ライフサイクルの各ステップまたは各部分に最適なツールを購入し、これらのツールをつなぎ合わせて、組織とそのニーズに合わせてよりカスタマイズされた全体的なプラットフォームを構築する
多くの場合、2番目の選択肢は状況によりますが、組織のニーズに最適な新規投資を行うという明確な選択によってではなく、既存の投資によって決定される(つまり、x、y、zのためのツールをすでに持っているが、スタックを完成させるために何を追加できるか、どうやってすべてを結びつけることができるか)、ということです。
データサイエンス、ML、AIのプロジェクトライフサイクルを表現しています
接着剤の問題以外にも、ツールからツールへ移行する際に失われるエンドツーエンドのライフサイクルに不可欠な要素があります。例えば、以下のようなものです:
-
ツール間でデータ系統を追跡することは困難です。AIプロセスの可視性と説明可能性は、これらのシステムで内部と外部の両方で信頼を構築するために不可欠であるため、これは業界全体のすべての組織にとって問題です (また、金融サービスや製薬などの一部の高度に規制された業界では、法律で義務付けられています)。上記のオプション2では、不可能ではないにしても、どのモデルでどのデータが使用されているか、そのデータがどのように処理されているか、データを使用しているどのモデルが本番環境で使用されているかを一目で確認することは困難です。
-
最善のツールをつなぎ合わせると、チーム間の引き継ぎが複雑になる可能性があります (たとえば、データクレンジング後のアナリストとデータサイエンティストの間、または本番環境へのデプロイのためのデータサイエンティストとITまたはソフトウェアエンジニアの間)。プロジェクトをツールからツールに移動すると、いくつかの重要な情報が失われる可能性があることを意味します。言うまでもなく、ハンドオフに時間がかかり、データからインサイトへのプロセス全体が遅くなる可能性があります。
-
チームのハンドオフとデータ担当者間のコラボレーションのフォローアップとして、ツール間の承認チェーンを管理するという別の課題があります。モデルのバイアス、公平性、データプライバシーなどの問題を探して、AIプロジェクトがある段階から次の段階に移行するときにチェックと承認を確実に行うことで、ビジネスはどのようにリスクを軽減できるでしょうか?
-
オプション2は、ライフサイクルのステップ間で自動化の機会を逃したことも意味します。たとえば、本番環境のモデルまたはAIシステムの基盤となるデータが根本的に変更されたときに自動化されたアクションをトリガーするなどです。
-
同様に、チームはこれらすべてのツール間でさまざまな成果物をどのように監査およびバージョン管理するのでしょうか? たとえば、システム全体が期待どおりに動作するために、ツールAのデータパイプラインのどのバージョンがツールBのどのモデルバージョンと一致するかをどのように知るのでしょうか?
前述の課題を考えると、組織が最新のAIプラットフォームを構築するために投入するエネルギーは、ライフサイクル全体でツールを組み合わせることに費やされるべきではありません。最終的には、完全なデータパイプラインの全体像を失うことになります (技術的負債が増えることは言うまでもありません)。代わりに、AI用のエンド ツー エンド プラットフォーム(Dataiku など)に投資することで、再利用によるコスト削減、影響力の大きいテクノロジの実装に集中できる能力、スムーズなガバナンスと監視などを実現できます。
もちろん、1つのエンドツーエンド プラットフォームへの投資に伴う懸念は、組織が単一のベンダーに縛られることです。これは小さなリスクではなく、見過ごすべきではありません。企業はそのベンダーのロードマップや決定などに依存するようになるため、ロックインは実際に考慮する必要があります。 そのためには、オープンで拡張可能なエンド ツー エンドのテクノロジに投資することが重要です。これにより、組織は既存の基盤となるデータ アーキテクチャを活用できるだけでなく、ストレージ、コンピューティング、アルゴリズム、言語の観点から最高のテクノロジに投資することができます。
IT リーダーのためのさらなる準備はできていますか?
データの民主化の未来に向けて構築しようとしている IT チーム向けに、最新のデータ スタックからのインスピレーションを含む3つの重要な推奨事項を強調しているこのホワイトペーパーを確認してください。
原文: Top Challenges + Solutions for IT Leaders in the Age of AI