概要
「Qiita夏祭り」、「DataRobotのAuto MLを使って、簡単にデータxAI活用!」の記事です。
今日、さまざまな業界で機械学習をはじめとするAI技術が普及しており、課題解決のために活用されています。そして、機械学習モデルの構築に関する反復的な作業を自動化するAutoMLが開発され、機械学習は誰もが利用できる技術になることが期待されます。
AutoMLを提供しているDataRobotは、2020年7月1日から、「DataRobot AI Platformトライアル」の国内提供を開始しました。これにより、14日間、DataRobotを無償で体験できます。このような貴重な機会をいち早く活用して、DataRobotに触れて、先進的なAutoMLを体験したいと思います。
まずは、サンプルデータセットを用いて、さまざまな機能を体験します。次に、実際の使用例に基づき、用意したデータセットでモデルの構築、予測を試みます。
最終的に、DataRobotを利用することで、コードを一切書くことなく予測などが可能で、機械学習は誰もが利用できる技術になるであろうという実感が得られました。
はじめに
AI活用
今日、さまざまな業界で機械学習をはじめとするAI技術が普及しています。そして、課題解決のために活用されています。たとえば以下のような業界においてAI活用がなされています。
- 銀行
- 消費財
- フィンテック
- ヘルスケア
- 保険業
- 製造業
- マーケティング
- 公共部門
- 小売業
- ロボティックプロセスオートメーション
- スポーツ
- 石油とガス
以上のように挙げた業界におけるAI活用のために、データサイエンティストやソフトウェアエンジニアは以下のようなさまざまな作業を反復的に取り組んでいます。
- 特徴エンジニアリング
- モデル選択
- パラメータチューニング
- モデルの評価・検証
AutoML
AutoML(Automated Machine Learning:自動化された機械学習、自動機械学習)12とは、機械学習モデルの構築に関する反復的な作業を自動化する製品や概念です。これにより、データサイエンティストとソフトウェアエンジニアは、モデルの品質を維持しながら、大規模で効率的で生産的なモデルを構築できます。とくに、タスク設定などの他の領域に焦点を当てることができます。
以下にAutoMLとして提供されている製品を紹介します。
- AutoML Tables(Google)3
- AutoAI(IBM)4
- AutomatedML(Microsoft)5
- Prediction One(SONY)6
- H2O Driverless AI7
- DataRobot8
Google9やMicrosoft10といったIT業界を代表するような企業も製品を提供しており、AutoMLがいかに注目されているかがわかるかと思います。
DataRobot
DataRobotとは、AutoMLのプラットフォームおよびそれを提供する企業です。DataRobotは以下のように述べており「AI活用の民主化」、つまり、プログラミングができなくとも、誰もがAIを活用した課題解決に取り組むことができる社会の実現を目的としています11。
DataRobotのエンタープライズ AI プラットフォームを使用すれば、データサイエンスを民主化し、大規模な環境で AI を構築、デプロイ、メンテナンスするためのプロセス全体を自動化できます。最新のオープンソースアルゴリズムを採用し、クラウドやオンプレミスで、または完全管理型の AI サービスとして利用できる DataRobot なら、AI を活用してビジネスでより優れた成果を生み出せます。
DataRobot AI Platformトライアル
DataRobotは、2020年7月1日から「DataRobot AI Platformトライアル」の国内提供を開始しました。これにより、14日間、DataRobotを無償で体験できます^DataRobot AI Platformトライアル。このような貴重な機会をいち早く活用して、DataRobotに触れて、先進的なAutoMLを体験したいと思います。
DataRobot AI Platformトライアルの申し込み
以下リンクよりDataRobot AI Platformトライアルに申し込むことができます。
DataRobot AI Platform トライアル | DataRobot
はじめに、必要事項を記入して「送信」ボタンを押します。すると、登録したメールアドレス宛にメールが届きます。受信したメールに記載されている「14日間の試用を開始」というリンクを押下し、指示にしたがってアカウントを設定します。
※以下のように、トライアル版は、製品版と比較して、一部の機能に制限があります。
アカウントの設定後、ログインをすると以下のページに遷移します。ここからDataRobotのさまざまな機能を利用できます。
サンプルデータセットを用いたDataRobotの体験
ひとまず、DataRobot AI Platformに用意されているサンプルデータセットを用いて、予測をしたいと思います。DataRobotでは、以下のように、さまざまな業界における一般的なユースケースにしたがう12種類のサンプルデータセットが用意されています。用意されているサンプルデータセットからもさまざまな業界や場面でのAI活用が期待されていることが分かりますね。
ユースケース | ターゲット特徴量 | 業界 |
---|---|---|
再入院 | 再入院 | ヘルスケア |
夢の野球チームの予測 | Woba | スポーツ分析 |
予防保全 | 故障 | オイル・ガス |
ローンの債務不履行リスクの理解 | 貸し倒れ | 銀行業 |
ローンの繰上支払いを予測 | 解約 | 銀行業 |
戦略的疑惑リスト | SSLスコア | セキュリティ |
鋼板の欠陥の予測 | 欠陥 | 製造 |
ローンの債務不履行を予測 | 貸し倒れ | フィンテック |
不正請求検知 | 保険金詐欺 | 保険 |
ターゲット化された顧客サービス | 提案プラン | テレコミュニケーション |
マネーロンダリング防止アクティビティスコアリング | 疑わしい取引 | 銀行業 |
保険の統計的推測 | 発生保険金 | 保険 |
「詳細」を押下することで、ユースケース・データセットの詳細を確認できます。以下は「再入院」の詳細です。
今回は「再入院」を用いて、再入院のリスクが高い患者を予測したいと思います。患者が再入院するか否かの分類です。せっかくなので、その過程でさまざまな機能を触ってみて、気になったことを記載します。
データ
プロジェクトを作成
トップページにある「再入院」の「プロジェクトを作成」を押下します。直後、データのアップロード、元データの読み取り、探索的データ解析が実行されます。これらには多少の時間を必要とします。
探索的データ解析が完了しました。以下のように「何を予測しますか?」と問われています。
データ品質の確認
そして、下の方では「データ品質」も表示されます。「特徴量の数」、「データ行数」、「外れ値の有無」などが確認できます。とくに、数値型の特徴量の場合、基本的な統計量の確認が可能です。
データ品質評価
「データ品質評価」という欄に「」と表示されており、警告されています。これにより、一部の特徴量に外れ値が存在していることを把握できました。他にも「偽装欠損値」、「過剰なゼロ」、「インライア」が警告の対象となります。
また、警告を受けている対象の特徴量についてフィルタリングも可能です。今回の受けている警告を許容して問題がないか否かを判断するさい、手がかりとなりうる特徴量の確認が容易にできます。
これらの特徴量の品質を目視でも確認します。
特徴量の確認
数値型の特徴量
数値型の特徴量を確認します。外れ値が存在していると警告を受けていた「投薬回数」を確認します。表中の「投薬回数」を押下すると、ヒストグラム、頻出値、表、特徴量の型変換を確認できます。
以下は「ヒストグラム」です。特徴量の傾向を把握することに役立ちそうです。
以下は「頻出値」です。こちらもヒストグラムと同様に、特徴量の傾向を把握することに役立ちそうです。
以下は「表」です。頻出値の元のデータです。
以下は「特徴量の型変換」です。カテゴリ変数に変更し、新しい特徴量として追加できるようです。
カテゴリ型の特徴量の確認
数値型の特徴量を確認したため、カテゴリ型の特徴量も確認します。「性別」を確認します。表中の「性別」を押下すると、頻出値、表、特徴量の型変換を確認できます。
以下は「頻出値」です。
以下は「表」です。頻出値の元のデータです。
以下は「特徴量の型変換」です。他の型の変数に変更し、新しい特徴量として追加できるようです。
モデル
モデル構築
今回は元々設定されていたユースケースにしたがって、「再入院」を予測対象とします。画面の一番上に戻り、「何を予測しますか?」と問われている部分に予測対象として設定したい特徴量をターゲット名として記入します。また、「推奨されるターゲット」の「再入院」を押下することでも「再入院」を予測対象とできます。すると、以下のように、「再入院」の情報が表示され、真ん中に存在する「開始」ボタンのグレーアウトが解除されます。この「開始」ボタンを押下することで、モデリングが実行されます。
この時、「モデリングモード」を選択できます。今回はデフォルトとして設定されていた「クイック」のまま、開始ボタンを押下します。これにより、モデリングが実行されます。この時、さまざまな手法を用いて、さまざまなモデルが構築されます。予測には多少の時間を必要とします。以下のように実施しているモデリングの進捗がリアルタイムで表示されます。
モデリングが完了したようです。
モデルの一覧
左上の「モデル」タブを押してみると、作成されたモデルの一覧を表示させることができます。今回は36種類のモデルが作成されたようです。以下に示す状態では、指標をLogLossとして、交差検証でスコアが高かった順に並んでいます。
現状の設定で、もっともスコアの高いモデルに「デプロイ推奨」というバッジが付与されています。このバッジは以下のように、名の通り自動的に利用が望ましいと判断されたモデルに付与されるようです。今回は最近コンペでも利用頻度が高い手法であるXGBoost(eXtreme Gradient Boosting)12をもとにしたモデルのようです。
また、以下のように指標はLogLoss以外にも、AUCなどさまざまなものに変更が可能です。ユースケースや課題設定に応じて変更してモデルの選択に役立てることができます。
モデルの詳細
特定のモデルを押下すると、その詳細の確認が可能です。モデルがどのような構成なのか、どの特徴量にインパクトがあるのかなどの確認が可能です。
以下はモデルの構成です。モデルの概要として、モデルファイルサイズ、予測時間、サンプルサイズの割合がまとめられています。
以下は「モデル情報」です。
以下は「選択サマリー」、「ROC曲線」などです。
以下は「特徴量のインパクト」です。
以下は「予測の説明」です。
このようにモデルの詳細を確認できます。
モデルの比較
2つ以上のモデルに対して、評価値などを比較できます。
以下は「学習曲線」です。
以下は「速度 対 精度」です。実業務では、モデル構築などに必要とされる時間を含むコストの観点も大切になります。これを確認できることは便利ですね。
2つのモデルの比較として、デュアルリフト、リフト、ROC曲線の確認が可能です。
以下は「デュアルリフト」によるモデルの比較です。
以下は「リフト」によるモデルの比較です。
以下は「ROC曲線」によるモデルの比較です。
ここまでで、自動的に生成されたモデルを十分に確認できます。
予測
それでは、モデルリストにおいて「デプロイ推奨」のバッジが付与されているモデルを用いて、予測をします。
モデルを選択すると表示される「予測」タブを押下します。予測用のデータセットが用意されているので、今回はそちらをダウンロードして、これをアップロードして予測します。
アップロードが完了したら、「予測を計算」を押下します。
予測が完了しました。予測結果をダウンロードして結果を確認します。
以下はCSVで出力された予測結果の一部です。問題なく予測し、CSVとして出力できていることが確認できました。個人的に、デフォルトで予測結果に加えて予測確率も出力されるところが好みです。ビジネスで利用する場合、この予測確率から議論することもあるかと思います。
row_id | Prediction | PredictedLabel |
---|---|---|
0 | 0.19594717025756836 | 0 |
1 | 0.24459081888198853 | 0 |
2 | 0.5186466574668884 | 1 |
3 | 0.17647013068199158 | 0 |
4 | 0.25154659152030945 | 0 |
5 | 0.35077783465385437 | 0 |
6 | 0.11393532902002335 | 0 |
7 | 0.5681907534599304 | 1 |
8 | 0.5429481267929077 | 1 |
9 | 0.2699979841709137 | 0 |
10 | 0.3045080304145813 | 0 |
… | … | … |
49 | 0.21879716217517853 | 0 |
デプロイ
DataRobotでは、モデリングだけでなく、作成したモデルのデプロイも可能です。モデルを選択し、「デプロイ」を押下します。そして、「新規デプロイを追加」を押下します。
すると、デプロイに関して事前に設定すべき項目が表示されます。ひとまずデフォルトのままで設定が完了したとします。そして、「モデルをデプロイ」を押下します。
少し待つと、デプロイに成功しました!デプロイ時、対象サーバなどについて考ることなくボタンの押下1つで完了するということに感動しました。「デプロイを開く」を押下して、デプロイの詳細を確認します。
デプロイリストが表示されます。先ほど無事デプロイに成功した「再入院予測」を押下します。
「再入院予測」の概要です。(※一部マスクしています。)サマリー、コンテンツ、履歴とあり、エンドポイントなどがまとめられています。
「インテグレーション」を押下すると、インテグレーションが可能なソフトウェアなどの一覧が表示されます。それぞれを押下し、指示にしたがって設定をすることでインテグレーションが実現できます。
アカウントを設定することで、簡単にデプロイしたモデルを利用できることがわかります。Microsoft SQL Server^Microsoft SQL Server、Tableau13、Snowflake14、Python15のスコアリングコードなど、馴染みがあるサービスとインテグレーションできます。DataRobotはデプロイまでも機能として提供しており、素晴らしいAutoMLですね。今回、個人的にモデルのデプロイは、はじめての体験でした。
スコアリングコード(統合スクリプティングコード)
Pythonのコードを用いてデプロイしたモデルを使ってみます。スコアリングコードを押下すると、以下のようにDataRobotの予測をPythonのプロジェクトに統合するためのコードが表示されます。また、予測タイプや入力形式、予測の説明を設定することでPythonのコードが適切に変更されます。今回はデフォルトのまま試してみます。
コードの上部に以下のように使用方法(Usage)が記述されています。この記述を参考にしてデプロイしたモデルを試してみます。Usageにしたがいdatarobot-predict.py
というファイルとして作成します。
"""
Usage:
python datarobot-predict.py <input-file.csv>
This example uses the requests library which you can install with:
pip install requests
We highly recommend that you update SSL certificates with:
pip install -U urllib3[secure] certifi
"""
以下、試した環境のPythonのバージョンです。
$ python --version
Python 3.8.3
はじめに、Pythonによるリクエスト、認証に関わる以下のライブラリ161718をインストールします。
pip install requests
pip install -U urllib3[secure] certifi
予測時に利用したデータをダウンロードしておきます。そして以下によりそのデータのラベルを予測します。
python datarobot-predict.py 10kDiabetesScoring.csv
すると、以下のようなレスポンスが返ってきます。結果を見る限り、先ほどGUIで予測した内容と同じです。それゆえ、問題なくインテグレーションできていることがわかります。GUIを用いて、CSVで予測を出力した場合と比べて、predictionThreshold
の情報が追加されています。
{
"data": [
{
"predictionValues": [ {
"value": 0.1959471703,
"label": 1.0
},
{
"value": 0.8040528297,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 0
},
{
"predictionValues": [
{
"value": 0.2445908189,
"label": 1.0
},
{
"value": 0.7554091811,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 1
},
{
"predictionValues": [
{
"value": 0.5186466575,
"label": 1.0
},
{
"value": 0.4813533425,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 1.0,
"rowId": 2
},
{
"predictionValues": [
{
"value": 0.1764701307,
"label": 1.0
},
{
"value": 0.8235298693,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 3
},
{
"predictionValues": [
{
"value": 0.2515465915,
"label": 1.0
},
{
"value": 0.7484534085,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 4
},
{
"predictionValues": [
{
"value": 0.3507778347,
"label": 1.0
},
{
"value": 0.6492221653,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 5
},
{
"predictionValues": [
{
"value": 0.113935329,
"label": 1.0
},
{
"value": 0.886064671,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 6
},
{
"predictionValues": [
{
"value": 0.5681907535,
"label": 1.0
},
{
"value": 0.4318092465,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 1.0,
"rowId": 7
},
{
"predictionValues": [
{
"value": 0.5429481268,
"label": 1.0
},
{
"value": 0.4570518732,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 1.0,
"rowId": 8
},
{
"predictionValues": [
{
"value": 0.2699979842,
"label": 1.0
},
{
"value": 0.7300020158,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 9
},
{
"predictionValues": [
{
"value": 0.3045080304,
"label": 1.0
},
{
"value": 0.6954919696,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 10
},
{
"$comment": "省略"
},
{
"predictionValues": [
{
"value": 0.2187971622,
"label": 1.0
},
{
"value": 0.7812028378,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 49
}
]
}
実際はひとつのデータのみを入力させて予測するという場面が多いのでしょうか。ヘッダを含めて二行のCSV、つまりひとつのデータのみで試した場合は以下のようになります。
以下はひとつの入力データです。
人種,性別,年齢,体重,入院種別ID,退院処置ID,入院理由ID,入院期間,支払者コード,診療科,検体検査回数,医療処置回数,投薬回数,通院回数,救急処置回数,入院回数,診断1,診断2,診断3,診断回数,最大血糖値,ヘモグロビンA1cの結果,メトホルミン,レパグリニド,ナテグリニド,グリベンクラミド,グリメピリド,アセトヘキサミド,グリピジド,グリブリド,トルブタミド,ピオグリタゾン,ロシグリタゾン,アカルボース,ミグリトール,トログリタゾン,トラザミド,エグザミド,シタグリプチン,インスリン,グリブリド・メトホルミン,グリピジド・メトホルミン,グリメピリド・ピオグリタゾン,メトホルミン・ロシグリタゾン,メトホルミン・ピオグリタゾン,変更,糖尿病の投薬治療,診断1の説明,診断2の説明,診断3の説明
Caucasian,Female,[50-60),?,Elective,Discharged to home,Physician Referral,1,CP,Surgery-Neuro,35,4,21,0,0,0,723,723,719,9,None,None,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,No,Spinal stenosis in cervical region,Spinal stenosis in cervical region,"Effusion of joint, site unspecified"
以下のコマンドを実行することにより、以下のレスポンスが返ってきます。
python datarobot-predict.py DiabetesScoring.csv
{
"data": [
{
"predictionValues": [
{
"value": 0.1959471703,
"label": 1.0
},
{
"value": 0.8040528297,
"label": 0.0
}
],
"predictionThreshold": 0.5,
"prediction": 0.0,
"rowId": 0
}
]
}
このようにDataRobotではデプロイによりサービスに利用可能なモデルを作成できます。
インサイト
DataRobotのインサイト機能には、モデル解釈のための可視化ツール一式が揃っています。個々の特徴量のインパクトを測定してランク付けするツールに加えて、モデルのメカニズムや入力データに対して実行される処理の詳細を提供、予測の説明をするツールが含まれています。
特徴量の有用性(木型アルゴリズム)
以下は「特徴量の有用性(木型アルゴリズム)」です。決定木などの木型アルゴリズムにおいて、特徴量の予測への有用性を確認できます。
ホットスポット
以下は「ホットスポット」です。高い予測パフォーマンスを説明するルールの解釈を確認できます。
ワードクラウド
以下は「ワードクラウド」です。ワードクラウド形式で関連性の高い単語を確認できます。
テキストマイニング
以下は「テキストマイニング」です。テキストとして検出された特徴量において、単語や短いフレーズとターゲット間の相関の強さを確認できます。
追記
特徴量の関連性
モデリング完了後、データを確認すると「特徴量の関連性」を確認できます。クラスターや特徴量同士の関連性が可視化されています。
モデリングモードの設定
モデリングモードの設定を変更することで、モデリングの結果が変化します。ここまで、「クイック」で試していたのに対して、「オートパイロット」の場合どのようになるのかを確認します。
モデリングを開始するときに、モデリングモードをオートパイロットに設定します。
モデリングが完了しました。クイックで作られたモデルの数が36であるのに対して、オートパイロットの場合は87ということで2倍以上のモデルが作られました。何が適しているかを把握することに優れていると思われます。
また、モデル一覧を確認すると、推奨されるモデルも異なることがわかります。今回推奨されているモデルはLightGBM19に基づくもののようです。モデリングモードがクイックに設定されている場合、推奨されていたモデルの指標LogLossの交差検定の値は0.6051でした。それに対して、今回、オートパイロットで試したときに推奨されていたモデルでは0.6117という値を算出しています。 オートパイロットで試したことにより、精度の高いモデルが生成できました。
もちろん、モデルの中身も異なります。今回推奨されているモデルは以下のような構成になっているようです。
もちろん、このモデルを用いて予測もできます。先ほどと同様に予測を試してみました。先ほどと異なる結果で出力できました。
row_id | Prediction | PredictedLabel |
---|---|---|
0 | 0.2653679034644111 | 0 |
1 | 0.23794947014914947 | 0 |
2 | 0.3989123535859031 | 0 |
3 | 0.12412360607778145 | 0 |
4 | 0.268736713951176 | 0 |
5 | 0.3928892100472709 | 0 |
6 | 0.10724329476445235 | 0 |
7 | 0.5072311740370784 | 1 |
8 | 0.6245067844822699 | 1 |
9 | 0.2932514998021243 | 0 |
10 | 0.2590284676195415 | 0 |
… | … | … |
49 | 0.26916688015135504 | 0 |
モデリングモードは状況などを考慮して変更するとよいでしょう。
用意したデータによるAutoMLの実行
ここまで、サンプルデータを用いて、特定のユースケースにしたがってAutoMLを使用してみました。実業務では、データを用意して、インポートしてからAutoMLを使用するかと思います。それゆえ、用意したデータで、DataRobotを使用します。
データ
今回は、データを用意したとして、Kaggle20で公開されている「タイタニックの生存者予測21」のためのオープンデータセットを利用します。これにより、データを用意して、インポートしてからAutoMLを使用するという実際のケースを模倣します。ここまでで紹介した内容と重複する内容の一部は、割愛いたします。
※今回はあくまで自前のデータを用いてDataRobotを利用する例として、Kaggleで公開されているオープンデータセットを利用します。Kaggleのコンペに参加して予測データの提出を試みる場合、制約にAutoMLの利用を禁止する旨が記述されていることがあるので注意してください。
プロジェクトを作成
最初の画面です。念のため、「データセット要件の表示」を確認します。
「DataRobotトライアルデータセットの要件」が表示されました。さまざまな形式のファイル、さまざまな型の特徴量に対応しているようです。一部、センシティブな内容のデータの利用は禁じられているようですね。
※「詳細」を確認したところリンクが切れていました。(2020年7月4日)
今回対象とするデータが要件を満たすことを確認できました。「×」を押して閉じて、データをインポートします。
探索的データ解析が完了しました。以下のように「何を予測しますか?」と問われています。
データ品質の確認
以下のようにデータ品質を確認します。
特徴量の確認
以下のように特徴量を確認します。
モデル
モデル構築
モデルを構築します。以下はモデル構築の様子です。モデリングモードはクイックとします。
最終的に48のモデルが生成されました。
モデルの一覧
以下は「モデルの一覧」です。
以下は指標AUCによってソートした結果です。
以下は指標LogLossによってソートした結果です。
モデルの詳細
以下のようにモデルの詳細を確認します。
予測
以下のように、テストデータを用いてモデルに予測させます。
以下はCSVとして出力した予測結果です。このような過程で、用意したデータによるAutoMLの実行が実現します。実際にビジネスでDataRobotを利用する場合はこのような過程になるかと思います。
row_id | Prediction | PredictedLabel |
---|---|---|
0 | 0.11019889529602393 | 0 |
1 | 0.3029252451779152 | 0 |
2 | 0.12930962218210088 | 0 |
3 | 0.0988794883341338 | 0 |
4 | 0.4768225875142026 | 0 |
5 | 0.09533866240426975 | 0 |
6 | 0.2980249339921418 | 0 |
7 | 0.13093293463237984 | 0 |
8 | 0.7266025133646047 | 1 |
9 | 0.0956728606437029 | 0 |
10 | 0.0981815593223891 | 0 |
… | … | … |
417 | 0.375484127807158 | 0 |
おわりに
本記事では「DataRobot AI Platformのトライアル」の国内提供を開始に伴い、DataRobotによりAutoMLを体験してみました。とくに、申し込みから、サンプルデータを用いたモデルの学習、予測、可視化、デプロイまで体験しました。そして、用意したデータを用いたモデルの学習、予測を実施してみました。
提供されている機能は非常に多く、そのすべての確認、体験はできませんでした。しかし、コードを一切書くことなく、一部のプロセスについての作業もせずに、GUIでの操作だけで十分なクオリティのAI活用ができそうだと感じました。
皆様も、この機会にDataRobotによりAutoMLを体験してみてはどうでしょうか?本記事が、少しでも多くの方のお役に立てていれば幸いです。
-
https://www.atmarkit.co.jp/ait/articles/1901/06/news029.html ↩
-
https://docs.microsoft.com/ja-jp/azure/machine-learning/concept-automated-ml ↩
-
https://azure.microsoft.com/ja-jp/services/machine-learning/automatedml/ ↩
-
https://about.google/?fg=1&utm_source=google-JP&utm_medium=referral&utm_campaign=hp-header ↩