はじめに
はじめまして。 NTTデータ ソリューション事業本部 デジタルサクセスソリューション事業部 の @nttd-nagano です。
Informatica(インフォマティカ) のクラウドデータマネージメントプラットフォームとして、「Intelligent Data Management Cloud」(※1。以下IDMCと記載)というものがあります。
今回は、そのIDMCのiPaaS(※2)である「Cloud Application Integration」(※3)の
レシピを眺めてみた ので、ご報告します。
※1. Intelligent Data Management Cloud
略称はIDMC。旧称はIICS。クラウドデータマネジメントプラットフォーム。以下IDMCと記載。※2. iPaaS
Integration Platform as a Serviceの略語。既存のレガシーシステムやSaaSなど様々なサービスを連携し、新たなサービスを提供するための中核となるクラウドサービス。※3. Cloud Application Integration
略称はCAI。アプリケーション統合サービス。いわゆるiPaaS(※2)。以下CAIと記載。「iPaaS」とは
iPaaSとは、Integration Platform as a Serviceの略語です。
既存のレガシーシステムやSaaSなど、様々なサービスを連携し、
新たなサービスを提供するためのクラウドサービスのこと をいいます。
iPaaSというと著名なソリューションがいくつか思い浮かぶ方もいらっしゃると思いますが、Informatica社もGartner社の市場調査Magic Quadrantにて、
iPaaS分野のリーダーの1社に位置付けられており、
IDMC(※1)にも関連するサービスがあります。
IDMCの各種サービスのうち、iPaaSに関連するサービスは、
アプリケーション統合「Cloud Application Integration」(※3。略称はCAI) 、
および、データ統合「Cloud Data Integration」(※4。略称はCDI)です。
本記事では、このうち、CAIの「レシピ」にフォーカスしてお伝えします。
※4. Cloud Data Integration
略称はCDI。データ統合サービス。ETL処理(※5)やELT処理(※6)を担う。以下CDIと記載。※5. ETL処理
データベースなどに蓄積されたデータから必要なものを抽出(Extract)し、目的に応じて変換(Transform)し、データを必要とするシステムに格納(Load)すること。※6. ELT処理
ETL処理(※5)と対比して使われることが多い言葉。データ統合処理の順序を従来型のE→T→Lの順ではなく、E→L→Tの順でおこなう。近年ではDBMSの性能が爆発的に向上したことから、その性能を有効活用するために使われる手法。CAIの「レシピ」とは
2024年7月頃から、CAI用の各種「レシピ」が公開されはじめました。
レシピとは、iPaaSのよくある使い方に対応するために、
あらかじめ用意してあるアセット一式です。
レシピを使用すると、アセットを最初から手作業で作成する必要がないため、
時間を節約できます。
たとえば、 Dynamics 365 の連絡先を Marketo のリードに同期するレシピがあります。
そのレシピ内の「プロセス」は、下図のように実装されています。
利用者はレシピを自分のフォルダにコピーして設定するだけで利用できるため、便利です。
なお、レシピの使い方の詳細については、YouTubeに紹介動画がありますので、
ぜひご覧ください。
CAIのレシピ一覧(2025年2月時点)
それでは、現在公開されているレシピを眺めてみましょう。
レシピ名(原文) | レシピ名(日本語) | 説明(日本語) |
---|---|---|
AI Agent for Salesforce using Google Gemini | Google Geminiを用いたAIエージェント | Google Gemini を使用した Salesforce のAIエージェントレシピを利用して、Salesforceと自律的に対話し、ユーザーの問い合わせに対応します。 |
Amazon Bedrock Chat with File using Guide | ガイドを用いたファイルとのAmazon Bedrockチャット | ガイドを用いたファイルとの Amazon Bedrock チャットレシピを使用して、コンテキスト付きのファイルをアップロードし、ユーザープロンプトを提供し、ファイルの内容に基づいてユーザーの質問に答えます。 |
Amazon Bedrock Chat with History | 履歴を使用したAmazon Bedrockチャット | 履歴を使用した Amazon Bedrock チャットレシピを使用して、チャット履歴をファイルに保持し、次の質問やLLMの応答のコンテキストとして使用します。 |
Amazon Bedrock Chat with Image File using Guide | ガイドを用いた画像ファイルとのAmazon Bedrockチャット | ガイドを用いた画像ファイルとのAmazon Bedrock チャットレシピを使用して、コンテキスト付きの画像ファイルをアップロードし、ユーザープロンプトを提供し、画像ファイルのコンテキストに基づいてユーザーの質問に答えます。 |
Amazon Bedrock Prompt Chaining | Amazon Bedrockプロンプトチェイニング | Amazon Bedrock プロンプトチェイニングレシピを使用して、プロンプトチェーンを設計し、順番に解決することで、LLMからの望ましい応答を提供します。 |
Azure AI Search Ingestion Automation with ADLS | ADLSを用いたAzure AI Search取り込みの自動化 | ADLS を用いた Azure AI Search 取り込みの自動化を使用して、 Amazon Data Lake Storage (ADLS) の既存ファイルのインデックス、データソース、およびインデクサーを作成し、データでインデックスを埋め、文書を返す方法を学びます。 |
Azure OpenAI Chat with File using Guide | ガイドを用いたファイルとのAzure OpenAIチャット | ガイドを用いたファイルとの Azure OpenAI チャットレシピを使用して、コンテキスト付きのファイルをアップロードし、ユーザープロンプトを提供し、ファイルの内容に基づいてユーザーの質問に答えます。 |
Azure OpenAI Chat with History | 履歴を使用したAzure OpenAIチャット | 履歴を使用した Azure OpenAI チャットレシピを使用して、チャット履歴をファイルに保持し、次の質問やLLMの応答のコンテキストとして使用します。 |
Azure OpenAI Prompt Chaining | Azure OpenAIプロンプトチェイニング | Azure OpenAI プロンプトチェイニングレシピを使用して、プロンプトチェーンを設計し、順番に解決することで、LLMからの望ましい応答を提供します。 |
Azure OpenAI Prompt Engineering | Azure OpenAIプロンプトエンジニアリング | Azure OpenAIプロンプトエンジニアリングを使用して、Azure OpenAI 用のプロンプトを設計します。レシピはガイドまたはHTTPリクエストを使用してプロンプトを送信し、LLMからの応答を受け取ることができます。 |
Chat with Amazon Bedrock Knowledge Base | Amazon Bedrock Knowledge Baseによるチャット | Amazon Bedrock Knowledge Base の内容に基づいて質問をするために、Amazon Bedrock Knowledge Baseレシピを使用します。 |
Convert general order entry data from HL7 ORM O01 to FHIR R4 | HL7 ORM O01からFHIR R4への一般オーダデータの変換 | HL7 ORM O01メッセージを FHIR に変換します。これには、HL7 v2形式の一般オーダ情報をFHIR標準に変換することが含まれます。 |
Convert laboratory order data from HL7 OML O21 to FHIR R4 | HL7 OML O21からFHIR R4への検査オーダデータの変換 | HL7 OML O21メッセージを FHIR に変換します。これには、HL7 v2形式の検査オーダデータをFHIR標準に変換することが含まれます。 |
Convert patient admission data from HL7 ADT A01 to FHIR R4 | HL7 ADT A01からFHIR R4への患者入院データの変換 | HL7 ADT A01メッセージを FHIR に変換します。これには、HL7 v2形式の患者入院情報をFHIR標準に変換することが含まれます。 |
Convert patient registration data from HL7 ADT A04 to FHIR R4 | HL7 ADT A04からFHIR R4への患者登録データの変換 | HL7 ADT A04メッセージを FHIR に変換します。これには、HL7 v2形式の患者登録情報をFHIR標準に変換することが含まれます。 |
Convert patient update data from HL7 ADT A08 to FHIR R4 | HL7 ADT A08からFHIR R4への患者更新データの変換 | HL7 ADT A08メッセージを FHIR に変換します。これには、HL7 v2形式の患者更新情報をFHIR標準に変換することが含まれます。 |
Convert unsolicited observation result data from HL7 ORU R01 to FHIR R4 | HL7 ORU R01からFHIR R4への非同期検査結果データの変換 | HL7 ORU R01メッセージを FHIR に変換します。これには、HL7 v2形式の検査結果をFHIR標準に変換することが含まれます。 |
Convert unsolicited vaccination update data from HL7 VXU V04 to FHIR R4 | HL7 VXU V04からFHIR R4への非同期予防接種更新データの変換 | HL7 VXU V04メッセージを FHIR に変換します。これには、HL7 v2形式のワクチン接種情報をFHIR標準に変換することが含まれます。 |
Create Amazon Bedrock Knowledge Base and Data Source using Guide | ガイドを用いてAmazon Bedrock Knowledge Baseとデータソースを作成 | ガイドを使用して、ファイルがアップロードされたときに Amazon Bedrock Knowledge Base とリソースを自動的に作成します。また、Amazon Bedrock LLMを使用して、ファイルの内容に基づいてユーザーの質問に答えることができます。 |
Create Netsuite Sales Orders from Dynamics 365 Opportunities | Dynamics 365の営業案件からNetsuiteの販売注文を作成 | このプロセスは、 Dynamics 365 のWebhookリクエストを基にして、Dynamics 365の営業案件から Netsuite の販売注文を作成します。 |
Function Calling using Google Vertex AI | Google Vertex AIを使用した関数呼び出し | Google Vertex AI を使用した関数呼び出しレシピを使用して、CAIプロセスのペイロードを作成し、ユーザーのクエリに基づいてダイナミックに実行します。 |
GeminiAI Chat with File | ファイルを用いたGeminiAIチャット | ファイルを用いた GeminiAI チャットレシピを使用して、ファイルパスとユーザープロンプトを提供し、ファイルからテキストを読み取り、Gemini LLMを使用してユーザーの質問に答えます。 |
GeminiAI Chat with File using Guide | ガイドを用いたファイルとのGeminiAIチャット | ガイドを用いたファイルとの GeminiAI チャットレシピを使用して、コンテキスト付きのファイルをアップロードし、ユーザープロンプトを提供し、ファイルの内容に基づいてユーザーの質問に答えます。 |
GeminiAI Chat with History | 履歴を使用したGeminiAIチャット | このレシピは、以前のチャットをユーザーの現在の質問のコンテキストとして使用し、履歴をファイルに保持するチャットボットを提供します。 |
GeminiAI Prompt Chaining | GeminiAIプロンプトチェイニング | GeminiAI プロンプトチェイニングレシピを使用して、プロンプトチェーンを設計し、順番に解決することで、LLMからの望ましい応答を提供します。 |
Ingest Files to Azure AI Search Index using Guides | ガイドを用いたAzure AI Searchインデックスへのファイル取り込み | ガイドを用いた Azure AI Searchインデックス へのファイル取り込みレシピを使用して、 Amazon Data Lake Storage (ADLS) コンテナにファイルをアップロードし、アップロードされたファイルからデータを取得してインデックスを自動的に実行する方法を学びます。 |
Loan Processing with Azure OpenAI | Azure OpenAIを使用したローン処理 | Azure OpenAI を使用したローン処理レシピを使用して、ローン申請を評価し、申請者の信用スコアに基づいて承認または拒否します。 |
Loan Processing with GenAI | GenAIを使用したローン処理 | GenAIを使用したローン処理レシピを使用して、ローン申請を評価し、申請者の信用スコアに基づいて承認または拒否します。 |
Multimodal Chat Completion with Google Vertex AI | Google Vertex AIを使用したマルチモーダルチャットCompletion | Google Vertex AI を使用して、異なるファイルタイプのコンテキストに基づいてGoogle Vertex LLMに質問します。 |
Natural Language Interaction with Oracle SelectAI | Oracle SelectAIを使用した自然言語インタラクション | Oracle Select AI の自然言語インターフェースを使用して、 Oracle Autonomous Database 23ai にクエリを実行するために、Oracle SelectAIレシピを使用します。 |
Omni Channel Order Management | オムニチャンネル注文管理 | オムニチャンネル注文管理レシピを使用して、異なるチャネルから一般販売注文オブジェクトを作成します。 |
Procure to pay with Coupa and Netsuite | CoupaとNetsuiteを使用した調達から支払いまで | このプロセスは、Coupa のWebhookリクエストに基づいて、Coupaの購入注文から NetSuite の購入注文と請求書を作成します。 |
Serialize Swift Messages with Secure Signatures | セキュアな署名を使用してSwiftメッセージをシリアライズ | セキュアな署名を使用して Swiftメッセージ をシリアライズするレシピを使用して、Swift XML形式のメッセージを効率的に構造化されたSwiftメッセージに変換し、JSON Webトークン(JWT)を使用してメッセージにセキュアに署名します。 |
Simple RAG consumption using Azure OpenAI with DataSources | データソースを使用したAzure OpenAIによるシンプルなRAG消費 | データソースを使用した Azure OpenAI によるシンプルなRAG消費レシピを使用して、コンテキストを含むリクエストをAzure OpenAI LLMに準備して送信します。 |
Simple RAG Consumption With Azure OpenAI and AI Search | Azure OpenAIとAI検索を使ったシンプルなRAG消費 | Azure AI Search を使用したシンプルなRAG消費レシピを使用して、ユーザーからのクエリを受け取り、ベクトルに変換し、コンテキストを形成し、LLMを使用して包括的な応答を返します。 |
Simple RAG Consumption with Pinecone | Pineconeを使ったシンプルなRAG消費 | Pinecone を使用したシンプルなRAG消費レシピを利用して、ユーザーからのクエリを受け取り、ベクトルに変換し、コンテキストを形成し、LLMを使用して包括的な応答を返します。 |
Simple React Agent with Azure Open AI and Google Search | Azure Open AIとGoogle検索を使ったシンプルなReactエージェント | Azure Open AI とGoogle検索を利用したシンプルなReactエージェントレシピを使用して、Google検索ツールを用いて自律的にタスクを生成および実行し、LLMを使用してユーザーのクエリに回答します。 |
Simple React AI Agent with Amazon Bedrock | Amazon Bedrockを使ったシンプルなReact AIエージェント | Amazon Bedrock を使用したシンプルなReact AIエージェントレシピを用いて、Google検索ツールを使用して自動的にタスクを生成および実行し、Simple ReactエージェントおよびAmazon Bedrock LLMを使用してユーザーのクエリに応答します。 |
Simple React AI Agent with Search Tools | 検索ツールを使ったシンプルなReact AIエージェント | 検索ツールを使用したシンプルなReact AIエージェントレシピを利用して、Google検索ツールを用いて自律的にタスクを生成および実行し、LLMを使用してユーザーのクエリに回答します。 |
Synchronize Dynamics 365 Accounts or Contacts with Salesforce Accounts or Contacts | Dynamics 365のアカウントや連絡先をSalesforceのアカウントや連絡先と同期 | Dynamics 365 でアカウントまたは連絡先が作成または更新されると、プロセスがトリガーされ、アカウントまたは連絡先の詳細が Salesforce アカウントまたは連絡先と同期されます。 |
Synchronize Dynamics 365 Cases with ServiceNow Incidents | Dynamics 365のケースをServiceNowのインシデントと同期 | Dynamics 365 で前日に作成または更新されたケースを ServiceNow のインシデントと同期するプロセスです。 |
Synchronize Dynamics 365 Contacts with Marketo Leads | Dynamics 365の連絡先をMarketoリードと同期 | Dynamics 365 で連絡先が作成または更新されると、プロセスがトリガーされ、連絡先の詳細が Marketo リードと同期されます。 |
Synchronize NetSuite Cases with Salesforce Cases | NetSuiteのケースをSalesforceのケースと同期 | NetSuite でケースが作成または更新されると、プロセスがトリガーされ、ケースの詳細が Salesforce ケースと同期されます。 |
Synchronize Salesforce Accounts with Dynamics 365 Accounts | SalesforceのアカウントをDynamics 365のアカウントと同期 | このプロセスは、指定された Salesforce アカウントIDを基にSalesforceのアカウントを Dynamics 365 のアカウントと同期します。 |
Synchronize Salesforce Cases with ServiceNow Incidents based on Platform Events | プラットフォームイベントに基づいてSalesforceのケースをServiceNowのインシデントと同期 | Salesforce でケースが作成または更新されると、Salesforceプラットフォームイベントがプロセスをトリガーし、ケースの詳細が ServiceNow のインシデントと同期されます。 |
Synchronize Salesforce Contacts with Database Contacts | Salesforceの連絡先をデータベースの連絡先と同期 | このプロセスは、 Salesforce で作成または更新された連絡先をデータベースの連絡先と同期します。 |
Synchronize Salesforce Contacts with ServiceNow Users | Salesforceの連絡先をServiceNowのユーザーと同期 | このプロセスは、指定された Salesforce 連絡先IDを基にSalesforceの連絡先を ServiceNow のユーザーと同期します。 |
Synchronize Salesforce Incidents with ServiceNow Incidents based on Platform Events | プラットフォームイベントに基づいてSalesforceのインシデントをServiceNowのインシデントと同期 | Salesforce でインシデントが作成または更新されると、Salesforceプラットフォームイベントがプロセスをトリガーし、インシデントの詳細が ServiceNow のインシデントと同期されます。 |
Synchronize Salesforce Leads with Marketo Leads | SalesforceのリードをMarketoのリードと同期 | Salesforce でリードが作成または更新されると、Salesforceのデータキャプチャイベントがプロセスをトリガーし、リードの詳細が Marketo リードと同期されます。 |
Synchronize ServiceNow Incidents with Dynamics 365 Cases | ServiceNowのインシデントをDynamics 365のケースと同期 | このプロセスは、 ServiceNow で前日に作成または更新されたインシデントを Dynamics 365 のケースと同期します。 |
Synchronize ServiceNow Incidents with Jira Issues | ServiceNowのインシデントをJiraの課題と同期 | ServiceNow で作成または更新されたインシデントを Jira の課題と同期するレシピを使用します。 |
Synchronize Workday Hired Employees with ServiceNow Users | Workdayの雇用された従業員をServiceNowのユーザーと同期 | このプロセスは、 Workday で前期間中に作成または更新された従業員アカウントを ServiceNow ユーザーと同期します。 |
Update Amazon Bedrock Knowledge Base | Amazon Bedrockナレッジベースの更新 | 既存の Amazon Bedrock Knowledge Base をAmazon S3のデータソースを使用して更新し、通知ステータスを提供するレシピを使用します。 |
Verify Email | メールの検証 | メールを使用して相関性と長期トランザクションをサポートするレシピを使用します。 |
さまざまなレシピが公開されていますね。
インフォマティカ・ジャパン様が公開したCAIレシピ
上記とは別に、 2024年のAdvent Calendar にて、
インフォマティカ・ジャパン株式会社の @shunsuzu さんが、
CAIの実装上のノウハウを大量に公開してくださっているため、
こちらもご覧いただければと思います。
基礎
- はじめてCAIを使う際に
- プロセスの作成と実行(匿名アクセスと基本認証)
- プロセス実行環境の切り替え(Secure Agent環境での実行)
- Secure Agent環境の証明書入れ替え
- プロセスのデプロイ先・認証方法によるサービスURLの違い
- API Managerを利用したプロセスの実行
- 割り当てステップと、各種変数フィールドの利用
- プロセスIDの取得と、アプリケーション統合コンソールとの突き合わせ
- デバッグのためのログレベル
- 待機ステップによるスリープ処理
- マイルストーンステップによる非同期実行
- 終了ステップによるHTTPレスポンスコード/ヘッダーの設定
- ディシジョンステップによるによる分岐処理
- ジャンプステップによる実行制御
- 並列パスステップによる同時実行制御
- OSコマンドの実行
- プロセスオブジェクトによるユーザー定義変数の利用
- リスト型のプロセスオブジェクト変数の利用
XQueryと関数を利用した実装
- CAIでXQueryを利用する時に覚えておきたいこと
- XQuery+XPathサンプル
- CAIプロセス実行時のプロトコル(HTTP/HTTPS)を確認する
- CAIプロセス実行時の動詞(GET, POSTなど)/ResourcePathに応じた処理
- CAIプロセス呼び出し元IPアドレスの取得
サービス接続
- サービス接続によるREST APIの実行
- 動的なURLを使用するサービス接続
- BASIC認証を使用するサービス接続
- HTTPレスポンスコード/ヘッダーを扱うサービス接続
- REST APIによりファイルを取得するサービス接続
ファイル処理
- ファイルの存在チェック
- テキストファイルの作成
- CSVファイル読み込み・CSVファイル書き出し
- CSVファイル読み込み・CSVファイル書き出し(動的ヘッダー)
- ファイルアップロードとSecure Agent環境への保存(multipart/form-data)
- Secure Agent実行環境のファイルダウンロード
運用監視
おわりに
以上、「InformaticaのiPaaSであるCAIのレシピを眺めてみた」でした。
役立ちそうなレシピは見つかりましたでしょうか。
IDMCのデータ統合サービスCDIは30日間の無料体験ができる ので、この機会に試してみてはいかがでしょうか。
仲間募集
NTTデータ ソリューション事業本部 では、以下の職種を募集しています。
1. クラウド技術を活用したデータ分析プラットフォームの開発・構築(ITアーキテクト/クラウドエンジニア)
クラウド/プラットフォーム技術の知見に基づき、DWH、BI、ETL領域におけるソリューション開発を推進します。
https://enterprise-aiiot.nttdata.com/recruitment/career_sp/cloud_engineer
2. データサイエンス領域(データサイエンティスト/データアナリスト)
データ活用/情報処理/AI/BI/統計学などの情報科学を活用し、よりデータサイエンスの観点から、データ分析プロジェクトのリーダーとしてお客様のDX/デジタルサクセスを推進します。
https://enterprise-aiiot.nttdata.com/recruitment/career_sp/datascientist
3.お客様のAI活用の成功を推進するAIサクセスマネージャー
DataRobotをはじめとしたAIソリューションやサービスを使って、
お客様のAIプロジェクトを成功させ、ビジネス価値を創出するための活動を実施し、
お客様内でのAI活用を拡大、NTTデータが提供するAIソリューションの利用継続を推進していただく人材を募集しています。
https://nttdata-career.jposting.net/u/job.phtml?job_code=804
4.DX/デジタルサクセスを推進するデータサイエンティスト《管理職/管理職候補》
データ分析プロジェクトのリーダとして、正確な課題の把握、適切な評価指標の設定、分析計画策定や適切な分析手法や技術の評価・選定といったデータ活用の具現化、高度化を行い分析結果の見える化・お客様の納得感醸成を行うことで、ビジネス成果・価値を出すアクションへとつなげることができるデータサイエンティスト人材を募集しています。https://nttdata-career.jposting.net/u/job.phtml?job_code=898
ソリューション紹介
Trusted Data Foundationについて
~データ資産を分析活用するための環境をオールインワンで提供するソリューション~
https://www.nttdata.com/jp/ja/lineup/tdf/
最新のクラウド技術を採用して弊社が独自に設計したリファレンスアーキテクチャ(Datalake+DWH+AI/BI)を顧客要件に合わせてカスタマイズして提供します。
可視化、機械学習、DeepLearningなどデータ資産を分析活用するための環境がオールインワンで用意されており、これまでとは別次元の量と質のデータを用いてアジリティ高くDX推進を実現できます。
TDFⓇ-AM(Trusted Data Foundation - Analytics Managed Service)について
~データ活用基盤の段階的な拡張支援(Quick Start) と保守運用のマネジメント(Analytics Managed)をご提供することでお客様のDXを成功に導く、データ活用プラットフォームサービス~
https://www.nttdata.com/jp/ja/lineup/tdf_am/
TDFⓇ-AMは、データ活用をQuickに始めることができ、データ活用の成熟度に応じて段階的に環境を拡張します。プラットフォームの保守運用はNTTデータが一括で実施し、お客様は成果創出に専念することが可能です。また、日々最新のテクノロジーをキャッチアップし、常に活用しやすい環境を提供します。なお、ご要望に応じて上流のコンサルティングフェーズからAI/BIなどのデータ活用支援に至るまで、End to Endで課題解決に向けて伴走することも可能です。
NTTデータとInformaticaについて
データ連携や処理方式を専門領域として10年以上取り組んできたプロ集団であるNTTデータは、データマネジメント領域でグローバルでの高い評価を得ているInformatica社とパートナーシップを結び、サービス強化を推進しています。
https://www.nttdata.com/jp/ja/lineup/informatica/
NTTデータとTableauについて
ビジュアル分析プラットフォームのTableauと2014年にパートナー契約を締結し、自社の経営ダッシュボード基盤への採用や独自のコンピテンシーセンターの設置などの取り組みを進めてきました。さらに2019年度にはSalesforceとワンストップでのサービスを提供開始するなど、積極的にビジネスを展開しています。
これまでPartner of the Year, Japanを4年連続で受賞しており、2021年にはアジア太平洋地域で最もビジネスに貢献したパートナーとして表彰されました。
また、2020年度からは、Tableauを活用したデータ活用促進のコンサルティングや導入サービスの他、AI活用やデータマネジメント整備など、お客さまの企業全体のデータ活用民主化を成功させるためのノウハウ・方法論を体系化した「デジタルサクセス」プログラムを提供開始しています。
https://www.nttdata.com/jp/ja/lineup/tableau/
NTTデータとAlteryxについて
Alteryx導入の豊富な実績を持つNTTデータは、最高位にあたるAlteryx Premiumパートナーとしてお客さまをご支援します。
導入時のプロフェッショナル支援など独自メニューを整備し、特定の業種によらない多くのお客さまに、Alteryxを活用したサービスの強化・拡充を提供します。
NTTデータとDataRobotについて
NTTデータはDataRobot社と戦略的資本業務提携を行い、経験豊富なデータサイエンティストがAI・データ活用を起点にお客様のビジネスにおける価値創出をご支援します。
NTTデータとDatabricksについて
NTTデータではこれまでも、独自ノウハウに基づき、ビッグデータ・AIなど領域に係る市場競争力のあるさまざまなソリューションパートナーとともにエコシステムを形成し、お客さまのビジネス変革を導いてきました。
Databricksは、これら先端テクノロジーとのエコシステムの形成に強みがあり、NTTデータはこれらを組み合わせることでお客さまに最適なインテグレーションをご提供いたします。