感情推定技術についてのメモ。知り合いにヒアリングする前にちょっと検索してみた程度の情報。
User Localの感情推定使ってみた
UserLocalに顔のイメージを送ると、resultが返ってくる。
個人で遊ぶ分にはよさそう。推定アルゴやモデルを自分で作った後、ベンチマークとして比較する対象にはなるかも。
#!/usr/bin/env python
# coding: utf-8
# 依存ライブラリのインストールが必要です
# $ pip install requests
import requests
import json
image_path = '/path/to/image'
image = open(image_path, 'rb').read()
url = "https://ai-api.userlocal.jp/face"
res = requests.post(url, files={"image_data": image})
data = json.loads(res.content)
result = data['result']
for r in result:
print(f"""
年齢: {r['age']}
感情: {r['emotion']}
性別: {r['gender']}
顔の向き: {r['head_pose']}
顔の位置: {r['location']}
""")
↓こうなった↓
元画像の切り抜きはOpenCV顔検出の内容をもとに、Googleフォトの自分の画像から切り抜いて適当に持ってきた。
20代半ばから後半の人の写真だったが、推定された年齢はばらつきあり。その他、感情や顔の向き、位置についてはそれっぽい。
顔認識させて感情に合わせてリアクションさせたり、しゃべらせたりするBOT作ったりして遊べそう。怒りを検出したら「6秒我慢だ」ってGoogleHomeにしゃべらせるとか。
最近はもっと高精度でフリーの物もありそう。
情報メモ
-
Cloud Vision API :Googleが提供しているらしい
-
Affdex: https://affectiva.jp/
-
OKI:https://prtimes.jp/main/html/rd/p/000000005.000027192.html
-
筑波大学 延原 肇 氏, 視線特徴量の計測と関心・感情の関係について: http://nobuharaken.com/theme/3321.html