LoginSignup
109
75

More than 3 years have passed since last update.

見るだけで押せる「視線スイッチ」

Last updated at Posted at 2019-08-22

カメラを見つめるだけでスイッチを押せる「視線スイッチ」の作り方を紹介します。
「使うときにしか見ないモノ」 が 「見るだけで使える」 ようになります。
カメラ付きのパソコンがあれば今すぐ簡単に作れます。(Windows、Mac、Linuxに対応)


トレたま で取り上げて頂きました!(テレビ東京、WBS ワールドビジネスサテライト)
トレたま(テレ東WBS)視線スイッチ
(視線スイッチは の個人開発であり、株式会社バッファローとは一切関係ありません。)

視線スイッチは、汎用的なスイッチなので、繋げるモノ次第で色々な使い方ができます。
例えば、物理ボタンを押してくれる小型の指ロボットSwitchBotを繋げば、見るだけで物理ボタンを押せます。
見るだけで押せる

赤外線家電を操作してくれるスマートリモコンを繋げば、見るだけでリモコン操作できます。
このように設置すれば、見るだけでエアコンをON/OFFできます。
見るだけでリモコン操作

また、「OK Google」と喋ってくれるスピーカーを繋げば、見るだけでGoogle Homeを起動できます。(もちろんAmazon Echoも。)
みるだけで起動

このように、「使う時にしか見ないモノ」 や「使う時すら見ないモノ」を、 「見るだけで使える」 ようにするのが視線スイッチです。
モノを使う時には、モノを見てから、モノを扱うという、人間の生活習慣における自然な視線の動きを利用しているので、使い方を覚えなくても、直感的に扱えます。また、普段は見ない場所を見つめるという、特殊な状況を検知するだけで済むので、安価なカメラやパソコンでも、誤検知の少ない高性能な視線スイッチを実現できます。

「壁のスイッチ」のように、普段はわざわざ見ることのない、「使う時にしか見ないモノ」は、私たちの生活のなかに沢山あるので、様々な場面で役に立ちます。例えば、ドアの鍵や、水道の蛇口、換気扇なども、普段はわざわざ見ないモノです。

さらに、「視線スイッチ」には、「速く」て「安心」という特徴もあります。ネット接続が不要で、完全にローカルな環境で動作するため、視線を検知したら、即座に操作が反映されます。ネットによる遅延やネットの障害で使えないということがありません。また、ネットに接続していないので、カメラの映像が流出する心配や、他人に操作される心配もなく、安心して使えます。

視線スイッチは、赤外線リモコンやスマートスピーカーとは異なる、新しい家電操作の手段を提供します。

特徴

  • 高性能
    • 部屋のどこにいても、見るだけで、スイッチを入れられます
    • 普通のカメラでも、かなり薄暗い部屋でも使えます
      • さらに暗視カメラを使えば、暗闇でも使えます
    • ネットを経由しないので、視線を検知した瞬間に、即座に操作が反映されます
    • 詳しくは → TriggEyeの性能評価
  • お手軽
  • 安心
    • ネット接続が不要
      • Webカメラの映像が流出する心配がありません
      • 他人に操作される心配もありません

作り方

視線スイッチは、2つのオープンソースソフトウェアを導入するだけで、誰でも今すぐ簡単に作れます。

  • 視線トリガー(TriggEye)
    目線→カメラ→コマンド

    • Webカメラを見つめるだけでコマンドを実行できるようにするソフトウェアです(私が作りました)
    • インストール手順
      • 所要時間:OSによって1分~30分
  • OpenFace
    OpenFaceによる、顔のランドマークの検出、および、頭のポーズの推定

    • 顔の行動分析ツールキットです
      • このOpenFaceが抽出した特徴量(視線の方向ベクトル、目の位置ベクトル)を基に、視線トリガー(TriggEye)はカメラ目線を検知します
    • インストール手順
      • 所要時間:OSによって10分~1時間
    • 注意:OpenFaceの商用利用は有料であり、非営利の研究目的に限り無料 → OpenFace License

クレジット

視線スイッチはどんな視線推定手法でも作れますが、私が短期間に視線トリガー(TriggEye)を実装できたのは、高性能なのに使いやすいOpenFaceあってこそです。研究者の皆様に感謝。

使い方

視線トリガー(TriggEye)のコマンド triggeye に、カメラ目線を検知するたびに実行するコマンドを渡すだけで、使えます。

  • 見るだけで物理ボタンを押せる視線スイッチ

    • % triggeye SwitchBotを押すコマンド
    • SwitchBotを押すコマンドの詳細は後日公開予定
  • 見るだけでエアコンをON/OFFできる視線スイッチ

  • 見るだけでスマートスピーカーを起こせる視線スイッチ

    • % triggeye 「OK Google」を喋るコマンド
    • OSごとのコマンドは、以下の通り:

カメラ目線の検知の仕組み

カメラを見つめた瞬間を検知する「カメラ目線の検知」の仕組みを説明します。

  1. OpenFaceを使って、視線の方向ベクトルと、目の位置ベクトルを取得します。
    視線の方向と目の位置のベクトル

  2. 視線の方向ベクトルを、「目とカメラの距離」と同じ長さまで引き伸ばした先を視点とみなします。
    視点

  3. 視点とカメラの差が「ほぼ0」であれば、カメラ目線として検知します。

視点とカメラの差がぴったり0になることはまずないので、許容誤差を 引数 で調整できるようにしました。出力 を見れば、推定した視点とカメラの差が分かるので、許容誤差を調整する際の参考になるでしょう。

また、(まばたき等に起因する)短時間での連続検知を防ぐため、目線検知の最小間隔も 引数 で調整できるようにしました。

(なお、検知する顔の人数を、「一人」または「複数人」に切り替えるための 引数 も後日追加する予定です。)

実装

カメラ目線を検知した時だけコマンドを実行できるようにするため、以下のようなシェルスクリプトを用意しました。

擬似コード
FeatureExtraction |  # 1フレームを解析するたびに、抽出した特徴量を1行出力
python3 detect.py |  # 特徴量を解析し、カメラ目線を検知した時だけ、検知内容を1行出力
while read line; do
    $cmd             # 検知内容を受け取った時だけ、コマンドを実行
done

1行目のFeatureExtractionは、OpenFaceの特徴量抽出プログラムであり、カメラの映像を1フレーム解析するたびに、抽出した特徴量を1行出力します。
2行目のdetect.pyは、「カメラ目線の検知の仕組み」をそのままコードに落とし込んだPythonスクリプトです。特徴量を1行ずつ解析して、カメラ目線を検知した時だけ、検知内容を1行出力します。
4行目の$cmdは、シェルスクリプトの利用者から与えられたコマンドであり、検知内容を受け取った時だけ実行されます。

この擬似コードを、実行可能な形に整えたシェルスクリプトが triggeye です → triggeye - GitHub

109
75
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
109
75