Help us understand the problem. What is going on with this article?

PepperのAPIを使って表情認識

More than 5 years have passed since last update.

PepperのAPIを使って年齢認識で紹介したALFaceCharacteristics APIを用いることで、笑顔などの表情に関する認識をおこなうことができます。ここでは、APIが提供する笑顔検出と、その他の表情認識の方法の2通りを試してみることにします。

なお、 ALFaceCharacteristics APIはバーチャルロボットでは動作確認手段はなく、Pepper実機が必要になります。 アルデバラン・アトリエ秋葉原などでPepper実機を使って実験などおこなってみていただければと思います。 (予約URL:http://pepper.doorkeeper.jp/events)

プロジェクトファイルの入手方法

このチュートリアルに関するプロジェクトファイルはGitHub https://github.com/Atelier-Akihabara/pepper-face-characteristics-example にて公開しています。
GitHubにあるコードの取得方法にはいくつかありますが、[Download ZIP]リンクからアーカイブを取得するのが簡単な方法のひとつです。他にもgit関連ツールを利用する方法などさまざまな方法がありますので、状況に応じて調べてみてください。

笑顔の判定

ALFaceCharacteristics APIを利用することで、認識した顔に関して、目の細さや口角が上がっているかなどの画像的な特徴から、笑顔度を判定することができます。この値を用いて、Pepperが認識している人間が笑顔かどうかを判定することが可能です。

メモリイベント FaceCharacteristics/PersonSmiling の利用

笑顔判定をもっとも簡単におこなう方法として、 FaceCharacteristics/PersonSmiling イベントを利用する方法があります。
まず、ドキュメントの内容を確認してみましょう。

ドキュメントの確認

このイベントに関する詳細は、Choregrapheドキュメントの NAOqi Developer guide > NAOqi Framework > NAOqi API > NAOqi PeoplePerception > ALFaceCharacteristics > ALFaceCharacteristics API にて説明されています。 FaceCharacteristics/PersonSmiling のリンクをクリックすると、以下のような説明が書いてあります。

Event: "FaceCharacteristics/PersonSmiling"
callback(std::string eventName, int id, std::string subscriberIdentifier)

Raised when a person has a smile degree above the current threshold (default = 0.7).
Parameters:

  • eventName (std::string) – “FaceCharacteristics/PersonSmiling”
  • id – ID of the person as defined by the ALPeoplePerception API.
  • subscriberIdentifier (std::string) –

笑顔度(smile degree, これは0.0~1.0で表現されます)が、しきい値(デフォルトは0.7)を越える人がいるとこのイベントが発生するといったことが説明されています。

また、このイベントによって渡される値は id です。これは、ALPeoplePerception: 人の一覧の取得ですでにみてきた、人の識別子です。
つまり、この FaceCharacteristics/PersonSmiling で得た値に基づいて、 PeoplePerception/Person/<ID>/AgeProperties などを取得することで、笑顔であると検出した人に関する追加情報を得ることが可能ということがわかります。

メモリウォッチャーでのメモリイベントの動作確認

アプリケーションを作成する前に、メモリウォッチャーでイベントの動作を確認してみましょう。
まず、メモリウォッチャーに確認したいイベントの内容を設定します。

  1. ChoregrapheをPepper実機に接続します
  2. [メモリウォッチャー]パネルから <監視するメモリキーの選択>をダブルクリックします
    memory-watcher.png
    [メモリウォッチャー]パネルが表示されない場合は、[表示]メニューの[メモリウォッチャー]がチェックされているかどうかを確認してください。

  3. まずは FaceCharacteristics/PersonSmiling を確認したいので、[フィルター]に PersonSmiling と入力 [A] し、FaceCharacteristicsの配下の[PersonSmiling]をチェック [B]し、[OK]ボタンをクリックします

    add-person-smiling.png

    すると、メモリウォッチャーに FaceCharacteristics/PersonSmiling が追加されます。

    memory-watcher-2.png

  4. 次に、人のIDの値を確認するため、 PeoplePerception/VisiblePeopleList も監視します。3.と同様に、[フィルター]に VisiblePeopleList と入力 [A] し、PeoplePerception配下の[VisiblePeopleList]をチェック [B]し、[OK]ボタンをクリックします

    add-visible-people-list.png

    以下のように、[メモリウォッチャー]パネルに FaceCharacteristics/PersonSmilingPeoplePerception/VisiblePeopleList が追加されていることを確認してください。

    memory-watcher-3.png

これで、メモリイベントの動作がどのようになっているのか、動作確認をおこなってみましょう。
Pepperの前に立つと、メモリウォッチャーの内容に以下のような変化があらわれるはずです。

memory-watcher-visible.png

PeoplePerception/VisiblePeopleList[6602] という数値が表示されました。これは、Pepperがカメラで認識可能な領域に人を一人認識し、その人には6602という識別子が設定されていることを示します。(この値は、その時点でのPepperの内部状態により異なります。)
次に、Pepperの前で笑ってみます。口角を上げたり、目を細めたり、歯を見せたりして笑顔を作ってみてください。

memory-watcher-smiling.png

すると、FaceCharacteristics/PersonSmiling6602と表示されました。これは、Pepperが人(識別子は6602)の笑顔度が0.7より大きくなったことによってこのイベントが発行され、その人の識別子が FaceCharacteristics/PersonSmiling に出力されたことを示しています。

アプリケーションをつくってみる

FaceCharacteristics/PersonSmilingの動きが確認できたところで、このイベントを使ってアプリケーションを作成してみましょう。
ここではサンプルとして、起動時に「僕に向かって笑ってもらえますか?」としゃべり、笑顔を認識すると、「(ID)さん、いい笑顔です!」としゃべるアプリケーションを作成してみます。

なお、サンプルプロジェクトは subscribe-person-smiling です。GitHubから取得したファイルのうち、 subscribe-person-smiling フォルダ内の subscribe-person-smiling.pml をダブルクリックするなどして開くことができます。
以下のような手順で作成しています。

  1. フローダイアグラム左側のメモリイベント追加[+]ボタンをクリックし、フィルターにPersonSmilingと入力[A]し、FaceCharacteristics/PersonSmilingをチェック[B] し[OK]ボタンを押します
    subscribe-person-smiling-event.png

  2. 以下のボックスをフローダイアグラムに配置します

    • standardボックスライブラリ
      • Audio > Voice > Say
    • advancedボックスライブラリ
      • Audio > Voice > Say Text
  3. 1.により作成された入力 FaceCharacteristics/PersonSmiling と各ボックスを接続し、内容を以下のように設定します

    subscribe-person-smiling-flow.png

  4. Say Textボックスのカスタマイズを参考に、しゃべる内容を変更します

    sentence += str(p) + "さん、いい笑顔です!"
    

このアプリケーションを実行し、笑顔を向けると、「12743さん、いい笑顔です!」などとしゃべります。一度Pepperから遠ざかり再度近寄ってみたり、別の人が寄ってきて笑顔を向けたりすると、「16234さん、いい笑顔です!」などと別の識別子をしゃべることもわかります。

今回は、説明のために人の識別子をそのまましゃべらせていますが、この識別子は特に利用せず、単純に FaceCharacteristics/PersonSmiling をトリガーにして写真を撮影するなどだけでも面白いと思います。ぜひ、活用してみてください。

People IDごとの SmileProperties の利用

年齢認識と同様に、人の識別子をキーに笑顔度を取得することができます。先の例では意外と笑顔と認識されなかったかもしれませんが、このサンプルを使って自身の笑顔度を確認すると、Pepperにおける笑顔度判定の特性が見えてくるかもしれません。

基本的な構造は、年齢の取得例で紹介した Get Ageボックス と同様です。
Basic Awarenessボックスによって得られた人のIDから、PeoplePerception/Person/<ID>/SmileProperties の値を参照してみます。
ここでは例として、Basic Awarenessが追跡している人に対して、10秒間隔で笑顔度を取得しその値をしゃべらせるということをおこなってみます。

サンプルプロジェクトは get-smile です。GitHubから取得したファイルのうち、 get-smile フォルダ内の get-smile.pml をダブルクリックするなどして開くことができます。
以下のような手順で作成しています。

  1. 空のPythonボックスとして、Get Smileボックスを作成します。
    Get Ageボックスと同様、以下のような入出力構成にしています。作成方法はPythonボックスの考え方などを参考にしてください。
    get-smile-box.png

  2. Get Smileボックスをダブルクリックしてスクリプトエディタを開き、以下のようなPythonスクリプトを記述します

    class MyClass(GeneratedClass):
        def __init__(self):
            GeneratedClass.__init__(self)
    
        def onLoad(self):
            self.memory = ALProxy("ALMemory")
            self.faceChar = ALProxy("ALFaceCharacteristics")
    
        def onUnload(self):
            pass
    
        def onInput_onPeopleDetected(self, peopleId):
            if peopleId < 0:
                return
            r = self.faceChar.analyzeFaceCharacteristics(peopleId)
            if not r:
                self.onUnknown()
                return
            smileData = self.memory.getData("PeoplePerception/Person/%d/SmileProperties" % peopleId)
            self.logger.info("Smile Properties: %d => %s" % (peopleId, smileData))
            if smileData and len(smileData) == 2:
                self.onSmile(smileData[0])
            else:
                self.onUnknown()
    

    コードの構成はGet Ageボックスと同様です。ALMemoryから取得しているキーがAgePropertiesではなくSmilePropertiesとなっている点のみが異なります。

  3. Get Ageボックスと同様の手順で、Basic Awarenessボックスと接続します。ここでは、Timerボックスを改造したTimer w/ Numberボックスを使い、最後にBasic Awarenessから出力された値が10秒ごとにGet Smileボックスに入力されるようにしています
    get-smile-flow.png

    各ボックスの値などはプロジェクトファイルの内容を参照してください。

get-smileプロジェクトを実行し、Pepperが顔が見える状態にすると、以下のように10秒おきに笑顔度をしゃべります。
なお、小数点の値をそのまましゃべらせようとすると、「ぜろ てん いち」などとしゃべってしまいわかりにくいので、100倍した整数値をしゃべらせています。

あなたの笑顔度は13くらい
あなたの笑顔度は34くらい

表情を変化させていくと、笑顔度の値が変化するのがわかります。さまざまな表情をしてみて、Pepperがどのような要素を手がかりに笑顔度を計算しているかを実験してみてください。

なお、[ログビューア]パネルを見ると、笑顔度の生の値と、確度を示す値も見ることができます。

[INFO ] behavior.box :onInput_onPeopleDetected:20 _Behavior__lastUploadedChoregrapheBehaviorbehavior_1892204656__root__GetSmile_5: Smile Properties: 47915 => [0.12999999523162842, 0.09800000488758087]
[INFO ] behavior.box :onInput_onPeopleDetected:20 _Behavior__lastUploadedChoregrapheBehaviorbehavior_1892204656__root__GetSmile_5: Smile Properties: 47915 => [0.3400000035762787, 0.8450000286102295]

[0.3400000035762787, 0.8450000286102295] のように、 [] で囲まれた2つの数字が出力されており、1つめの数値が笑顔度、2つめが笑顔度の確度を示す値です。この確度は、セットとなっている笑顔度の数値に関する確信の度合いを示す数値で、0に近いほど自信がない状態、1に近づくほど自信があることを示します。

このように、PeoplePerception/Person/<ID>/SmileProperties を参照することで、より詳細な値を取得することができ、細かな制御をおこなうことが可能になります。

笑顔以外の表情の判定

笑顔の認識と形式は異なりますが、 PeoplePerception/Person/<ID>/ExpressionProperties の値を用いることで、人の表情が 無表情(Neutral), 幸せ(Happy), 驚き(Surprised), 怒り(Angry), 悲しみ(Sad) のいずれに見えるかどうかを判別することが可能です。
SmileProperties によって得られる情報は、 [笑顔度, 確度] の形式でしたが、 ExpressionProperties の値は、 [無表情, 幸せ, 驚き, 怒り, 悲しみ] の順で、それぞれの表情として判断される度合いが0.0~1.0の範囲で格納されます。また、これらの値の総和は1.0となるようになっています。

この値を使うサンプルをサンプルプロジェクト get-expression として用意しています。GitHubから取得したファイルのうち、 get-expression フォルダ内の get-expression.pml をダブルクリックするなどして開くことができます。
以下のような手順で作成しています。

  1. 空のPythonボックスとして、Get Expressionボックスを作成します

    get-expression.png

    なお、onMax出力に出力される値は、 0...neutral, 1...happy, 2...surprised, 3...angry, 4...sad となります。

  2. Get Expressionボックスとして以下のようなコードを記述します

    class MyClass(GeneratedClass):
        def __init__(self):
            GeneratedClass.__init__(self)
    
        def onLoad(self):
            self.memory = ALProxy("ALMemory")
            self.faceChar = ALProxy("ALFaceCharacteristics")
    
        def onUnload(self):
            pass
    
        def onInput_onPeopleDetected(self, peopleId):
            if peopleId < 0:
                return
            r = self.faceChar.analyzeFaceCharacteristics(peopleId)
            if not r:
                self.onUnknown()
                return
            exprData = self.memory.getData("PeoplePerception/Person/%d/ExpressionProperties" % peopleId)
            self.logger.info("Expression Properties: %d => %s" % (peopleId, exprData))
            if exprData and len(exprData) == 5:
                self.onNeutral(exprData[0])
                self.onHappy(exprData[1])
                self.onSurprised(exprData[2])
                self.onAngry(exprData[3])
                self.onSad(exprData[4])
                self.onMax(exprData.index(max(exprData)))
            else:
                self.onUnknown()
    
  3. テスト用に、たとえば以下のようなフローを記述します。onNeutral~onSadの各出力は動作確認のためのログ出力をおこなうLogボックスを、onMaxの値に応じて「幸せそうですね。」「びっくりしましたか。」などとしゃべらせる内容を変更するようなSwitch Caseボックスを配置しています

    get-expression-example.png

このようにして、ExpressionProperties の各値を取得したり、最も大きな値が得られた項目に応じてしゃべらせることなどができます。

たとえば、サンプルプロジェクトを実行し、口を開けて目を見開いて、驚いたような顔を作ると、ログに以下のように出力されます。Surprisedの項目が大きな値になっていることがわかります。

[INFO ] behavior.box :onInput_onPeopleDetected:20 _Behavior__...: Expression Properties: 60331 => [0.14000000059604645, 0.0, 0.85999995470047, 0.0, 0.0]
[INFO ] behavior.box :onInput_message:27 _Behavior__...: Neutral: 0.140000000596
[INFO ] behavior.box :onInput_message:27 _Behavior__...: Happy: 0.0
[INFO ] behavior.box :onInput_message:27 _Behavior__...: Surprised: 0.8599999547
[INFO ] behavior.box :onInput_message:27 _Behavior__...: Angry: 0.0
[INFO ] behavior.box :onInput_message:27 _Behavior__...: Sad: 0.0

また、ExpressionProperties の値のうち3番目の数値、驚きの値が最大値なので、onMax出力には 2 が出力されます。
この値がSwitch Caseボックスに入力され、「びっくりしましたか。」としゃべる処理が実行されます。

このように、PeoplePerception/Person/<ID>/ExpressionProperties を利用することで、笑顔以外の表情についても判定することが可能です。ここまで見てきた、笑顔などの表情の情報を用いることで、Pepperに利用者の感情に応じた動きをおこなわせることが可能になります。

Atelier-Akihabara
ソフトバンクロボティクスで運用している開発者様向け体験スペース「Pepperアトリエ秋葉原 with SoftBank」の公式Qiitaアカウントとなります。 体験いただいているチュートリアルや、よくあるご質問、Tipsなどを展開してまいります。
http://www.softbank.jp/robot/special/tech/
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away