Androidアプリにおける機械学習概要
アプリ開発における機械学習(ML)は、アプリがアプリ内の体験や経験に基づいて、学習と改善を自動的に実行できるようにします。
Androidでは、機械学習用のさまざまなツールと手法がサポートされています。
Android用MLアプリの開発でやることは主に以下の4つです。
- 機械学習対応の設計: 製品の目標を明確にして、MLのデザインパターンを活用し、設計を行う
- モデルの構築とトレーニング: MLモデルを作成するか、既存の学習済みモデルを追加する
- 推論: Android端末またはクラウド上で動作する学習済みモデルを使用してデータを分析する
- デプロイ: アプリのMLモデルのインストールと更新をする
機械学習対応の設計
製品の目標を明確にして、それを達成するためにMLのデザインパターンを活用し、設計を行います。これを繰り返し行う必要があります。
詳細を知りたい方は、Googleでは機械学習に関する2つのガイドがあるので、そちらを参照ください。
モデル構築とトレーニング
特定のタスクを実行する用にトレーニングされたモデルが必要です。
モデルの作成とトレーニングは開発マシン上で行うか、クラウドインフラを利用して行います。
事前学習済みのモデル
-
ML Kit : Googleのオンデバイス機械学習の専門知識をモバイルアプリで利用できるようにするSDK
- Vision API : 画像にラベルをつけて、バーコード、テキスト、顔、オブジェクトを検出するAPI
- Natural Language API : 58言語間の翻訳を識別して翻訳して、返信を提案する自然言語処理API
- Google Cloud : CloudクライアントライブラリからCloud APIにアクセスして、学習済みモデルを利用する
独自のモデル
-
TensorFlow:機械学習用のオーブンソースのライブラリ
- 特徴として、データの読み込み、前処理、計算、状態、出力といった処理に対してテンソル(多次元配列)を扱っている
※事前トレーニング済みのモデルと独自モデルを導入する実装例は以下に記載します。
- 特徴として、データの読み込み、前処理、計算、状態、出力といった処理に対してテンソル(多次元配列)を扱っている
推論
特定のタスクを実行するためにすでにトレーニングされた機械学習モデルを使用するプロセスです。ここで、推論をデバイス上で実行するか、リモートからアクセスされるクラウドサービスを使用するか決める必要があります。
各種類の推論で代表的な開発オプションを以下に記載します。
デバイスでの推論
ML Kit
- 画像ラベル付け
- 顔検出(顔輪郭検出を含む)
- バーコード スキャン
-
翻訳
TensorFlow Lite - 物体検出
- ジェスチャー分類
クラウドベースの推論
ML Kit
- 画像ラベル付け
-
テキスト認識(OCR)
Google Cloud API
• Cloud Video Intelligence : ラベル付け、シーンや明示的なコンテンツの検出
• Cloud 音声認識
デプロイ
デバイス上で推論する際に Android で使用する ML モデルをパッケージ化および更新するプロセスのことです。
デプロイには以下の3つの方法があります。
- MLモデルをAndroidアプリに含める
- 実行時にモデルを提供する
- 両方を組み合わせる
実装
ここからは実際に事前学習済みのモデル(今回: ML Kit)と独自モデル(今回: TensorFlow Lite)の導入方法について説明していきます。
ML Kitの導入
ML KitのAPIはすべてデバイス上で実行されるので、ライブカメラの写真をリアルタイムで処理します。今回は既存のオブジェクトの検出とトラッキングを追加します。
導入する手順はわずか3ステップです。(デバイスのカメラアプリで写真を撮るための機能の実装は割愛します)
-
app/build.gradle
ファイルに以下のコードを追加します。
dependencies {
// ...
implementation 'com.google.mlkit:object-detection:17.0.0'
}
2. 画像上のオブジェクト検出の機能を追加する
ML Kitのオブジェクト検出トラッキングを設定するステップは3つです。
- 画像の準備
-
BitMap
からInputImage
を作成
-
- 検出用インスタンスを作成
- 単一オブジェクト(複数のオブジェクトの検出と分類)が対象
- 検出器に画像をフィード
private fun runObjectDetection(bitmap: Bitmap) { // 画像の準備 val image = InputImage.fromBitmap(bitmap, 0) // 検出用インスタンスの作成 val options = ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE) .enableMultipleObjects() .enableClassification() .build() val objectDetector = ObjectDetection.getClient(options) // 検出器に画像をフィード objectDetector.process(image) }
3. ML Kitの検出結果を可視化する
可視化ユーティリティを使用して、入力画像の上にML Kitのオブジェクト検出結果を描写します。
private fun runObjectDetection(bitmap: Bitmap) {
val image = InputImage.fromBitmap(bitmap, 0)
val options = ObjectDetectorOptions.Builder()
.setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
.enableMultipleObjects()
.enableClassification()
.build()
val objectDetector = ObjectDetection.getClient(options)
objectDetector.process(image).addOnSuccessListener { results ->
debugPrint(results)
// ML Kitの検出を可視化します
val detectedObjects = results.map {
var text = "Unknown"
if (it.labels.isNotEmpty()) {
val firstLabel = it.labels.first()
text = "${firstLabel.text}, ${firstLabel.confidence.times(100).toInt()}%"
}
BoxWithText(it.boundingBox, text)
}
val visualizedResult = drawDetectionResult(bitmap, detectedObjects)
inputImageView.setImageBitmap(visualizedResult)
}
実際の画面
TensorFlow Liteの導入
TensorFlow Liteのモデルを作成し、アプリにモデルをデプロイします。
今回はTensorFlow Liteのモデルの導入を説明するため、学習モデルの作成方法は別の記事で解説したいと思います。
今回はTensorFlow Hub にある利用可能なオブジェクト検出モデルを利用していきたいと思います。
導入するまでのステップは4ステップです。
- 学習済みモデル(今回: EfficientDet-Lite オブジェクト検出モデル)を
assets
フォルダに追加する
Project/
├ .gradle/
├ .idea/
├ app/
| ├ src
| | ├ main
| | | ├ assets/
| | | ├ java/
| | | ├ res/
| | | ├ AndroidManifest.xml
| ├ build.gradle
| ├ proguard-rules.pro
├ gradle/
├ build.gradle
├ gradle.properties
├ gradlew
├ gradlew.bat
├ loval.properites
├ settings.gradle
2.app/build.gradle
ファイルに以下のコードを追加します。
dependencies {
// ...
implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.2'
}
3.画像上のオブジェクト検出を設定機能を追加します。(ML Kitでやったものと同じ)
private fun runObjectDetection(bitmap: Bitmap) {
// 画像オブジェクトの生成
val image = TensorImage.fromBitmap(bitmap)
// 検出オブジェクトの作成
val options = ObjectDetector.ObjectDetectorOptions.builder()
.setMaxResults(5)
.setScoreThreshold(0.3f)
.build()
val detector = ObjectDetector.createFromFileAndOptions(
this,
"model.tflite",
options
)
// 検出器に画像をフィード
val results = detector.detect(image)
}
4.入力画像に検出結果を描写します。
private fun runObjectDetection(bitmap: Bitmap) {
val image = TensorImage.fromBitmap(bitmap)
val options = ObjectDetector.ObjectDetectorOptions.builder()
.setMaxResults(5)
.setScoreThreshold(0.3f)
.build()
val detector = ObjectDetector.createFromFileAndOptions(
this,
"model.tflite",
options
)
val results = detector.detect(image)
// 検出結果をパースして、表示する
val resultToDisplay = results.map{
val category =it.categories.first()
val text = "${category.label}, ${category.score.times(100).toInt()}%"
// 検出結果を示すデータオブジェクトを生成
DetectionResult(it.boundingBox, text)
}
// ビットマップ上に検索結果を描写し、表示する
val imgWithResult = drawDetectionResult(bitmap, resultToDisplay)
runOnUiThread{
inputImageView.setImageBitmap(imgWithResult)
}
}
実際の画面
まとめ
SDKやライブラリが充実しているので、機械学習について詳しくない自分でも簡単にAndroidアプリに機械学習を導入することができました。機械学習興味あるけど、あまり詳しくない人にもおすすめなので、ぜひさわってみてください!