はじめに
以前 Scratch Lab版を試して、それを以下の記事に書いていた「Face Sensing」の話です。
●Scratch Lab の Face Sensing のお試し(公式の顔認識の仕組み)+追記 - Qiita
https://qiita.com/youtoy/items/293831a9320436b1862b
当時は、Scratch Lab で使える状態だったものが、
「 https://scratch.mit.edu/ 」のほうの Scratch でも使えるようになりました。
記事執筆時点では、Scratch を開いて拡張機能を見てみると、以下のように拡張機能の一覧に Face Sensing が加わっています。
軽く、ブロックなどを見ていきます。
Face Sensing のブロック
Face Sensing の拡張機能を選ぶと、以下のようなブロックを使えるようになりました。
冒頭に書いていた過去の記事の中で、キャプチャ画像を載せていた利用可能なブロックと比べてみると、同じものが使えるようです(増減はなさそうです)。
個々のブロックの一部を見てみる
個々のブロックの一部を見てみます。
go to ○○
一番上にある「go to ○○」のブロックは、デフォルト設定の nose 以外に、以下の内容を選べるようです。
ざっと書き出すと、以下になるようです。
- 鼻
- 口
- 左目
- 右目
- 両目の間
- 左耳
- 右耳
- 頭頂部
when face tilts ○○
「when face tilts ○○」ブロックは「顔が右か左かに傾いた」というのをイベントとして検出できるようです。
when this sprite touches a ○○
「when this sprite touches a ○○」ブロックは、デフォルト設定で「nose」担っている部分に、上記の「go to ○○」ブロックと同じ選択肢があるようです。
おわりに
今回、Scratch の拡張機能に追加された「Face Sensing」に関して、少しブロックの情報を見てみたりなどしました。
詳細を見てみたり、実際に試してみるということは、別途、やっていければと思います。