コレグラフボックスライブラリ一覧(ver. 2.3.0)
Creation Date : 2015/5/19
Last Modified Date : 2015/5/20
robot start inc.
###▼Sensing(感知、計測)
### ▼Vision(視覚)
### ▼Camera Actions(カメラ動作)
## ■Select Camera(カメラを選択)
- 現在使用されているカメラを変更します。
入力:onUseTopCamera(バン)、onUseBottomCamera(バン)
出力:onReady(バン)
ボックス設定:なし
パラメータ:なし
## ■Take Picture(写真を撮影する)
- 写真を撮影します。
デフォルトでは、画像は「~/recordings/cameras」に保存されます。
画像はJPG形式です。
入力:onStart(バン)
出力:onStopped(バン)
ボックス設定:なし
パラメータ:解像度(160x120、320x240、640x480、1280x960)
ファイル名(デフォルト値はimage)
カメラ(トップ、ボトム)
### ▼Human Detection(人間の検出)
## ■Face Detection(顔検出)
- 人々の顔を検出し、検出した顔の数を返します。
顔データベースに登録されていなくても顔を検出します。
(Learn Face box を使って、ロボットに覚えさせることもできます。)
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
numberOfFaces(数)
onNoFace(バン)
ボックス設定:なし
パラメータ:なし
## ■Face Reco.(顔を認識)
- ロボットが知っている人の顔を認識します。
ロボットはこの認識前にLearn Face boxで顔を学習している必要があります。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
onRecognizedFaces(文字列)
ボックス設定:なし
パラメータ:なし
## ■Face TrackerFace Tracker(顔を追跡)
- 様々なモードで顔を追跡します。
例えばパラメータのMode変数を Move に設定すればその方向に移動します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
targetLost(バン)
targetReached(バン)
ボックス設定:なし
パラメータ:モード(頭、全身、移動を伴う)
エフェクター(両腕、左腕、右腕)
サイズ(m)
X距離(m)
Xしきい値(m)
Y距離(m)
Yしきい値(m)
角度(ラジアン)
角度しきい値(ラジアン)
## ■Learn Face(顔を学習する)
- ロボットに新しい顔と名称の対応を認識させます。
学習に成功した場合、ロボットの目は緑色に、失敗した場合は赤色になります。
入力:onLearn(文字列)
出力:onSuccess(バン)
onFailure(バン)
ボックス設定:なし
パラメータ:なし
## ■People Tracker(人を追跡)
- ロボットが人を追跡します。
入力:onStart(バン)
onStop(バン)
peopleId(ダイナミック)
出力:onStopped(バン)
targetLost(バン)
targetReached(バン)
ボックス設定:なし
パラメータ:モード(頭、全身、移動を伴う)
エフェクター(両腕、左腕、右腕)
X距離(m)
Xしきい値(m)
Y距離(m)
Yしきい値(m)
角度(ラジアン)
角度しきい値(ラジアン)
## ■Unlearn All Faces(全ての顔認識を忘れる)
- 顔データベースから、全ての顔認識を削除します。
入力:onClearDB(バン)
出力:onSuccess(バン)
onFailure(バン)
ボックス設定:なし
パラメータ:なし
## ■Unlearn Face(顔認識を忘れる)
- 指定された名前の顔を削除します。
もし、学習されていない顔だった場合、onFailureが出力されます。
入力:onUnlearn(文字列)
出力:onSuccess(バン)
onFailure(バン)
ボックス設定:なし
パラメータ:なし
### ▼Surroundings(周囲の状況)
## ■Basic Awareness(基本意識)
- ロボットが人々とのアイコンタクトを保つようにします。
ALBasicAwarenessモジュールへのインターフェイスです。
これを使うことで周辺の人間を認識し、常に人間に視線を向けてくれます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
stimulusDetected(文字列)
humanTracked(数)
humanLost(数)
ボックス設定:なし
パラメータ:エンゲージモード(なし、フル、セミ)
トラッキングモード(頭、体ローテーション、体全体)
音刺激有無
動き刺激有無
人刺激有無
タッチ刺激有無
## ■Is Backlit(バックライト)
- カメラのバックライトを確認します。
入力:check(バン)
出力:true(バン)
notSure(バン)
false(バン)
ボックス設定:なし
パラメータ:なし
## ■Is In Darkness(暗闇)
- カメラを使う時に、ロボットが暗闇にいないかチェックします。
入力:check(バン)
出力:true(バン)
false(バン)
ボックス設定:なし
パラメータ:暗さのしきい値
## ■Is Tracker Active(トラッカーがアクティブ)
- トラッカーがアクティブかチェックします。
入力:onAsk(バン)
出力:yes(バン)
no(バン)
ボックス設定:なし
パラメータ:なし
## ■Landmark Tracker(ランドマークを追跡)
- 様々なモードでランドマークを追跡します。
入力:onStart(バン)
onStop(バン)
landMarkId(ダイナミック)
出力:onStopped(バン)
targetLost(バン)
targetReached(バン)
ボックス設定:なし
パラメータ:モード(頭、全身、移動を伴う)
エフェクター(両腕、左腕、右腕)
サイズ(m)
X距離(m)
Xしきい値(m)
Y距離(m)
Yしきい値(m)
角度(ラジアン)
角度しきい値(ラジアン)
## ■Landmarks Tracker(目印追跡)
-ロボットが2つの目印のパターンを追跡することができます。
追跡するための目印を設定するために、firstLandMarkIdとsecondLandMarkId
入力を使用してください。
設定された目印はALTracker.setTargetCoordinates機能付きボックスの
スクリプトで調整します。
希望するロボットの位置はパラメータで設定します。
入力:onStart(バン)
onStop(バン)
firstLandMarkId(ダイナミック)
secondLandMarkId(ダイナミック)
出力:onStopped(バン)
targetLost(バン)
targetReached(バン)
ボックス設定:なし
パラメータ:モード(頭、体全体)
エフェクター(両腕、左腕、右腕)
サイズ
X座標
Y座標
角度
Xしきい値
Yしきい値
## ■Movement Tracker(動きを追跡)
- 検出された移動方向に頭を動かします。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
ボックス設定:なし
パラメータ:感度
## ■NAOMark(NAOマーク)
- NAO MarkとIDを検出します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
onMarkDetected(数)
onNoMark(バン)
ボックス設定:なし
パラメータ:なし
## ■Red Ball Tracker(赤いボールを追跡)
- 様々なモードで赤いボールを追跡します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
targetLost(バン)
targetReached(バン)
ボックス設定:なし
パラメータ:モード(頭、全身、移動を伴う)
エフェクター(両腕、左腕、右腕)
幅(m)
X距離(m)
Xしきい値(m)
Y距離(m)
Yしきい値(m)
角度(ラジアン)
角度しきい値(ラジアン)
## ■Vision Reco.(イメージを認識)
- ロボットが学習済みの画像、オブジェクト、場所を認識します。
ロボットが認識できる画像、オブジェクト、場所は事前に学習する必要があります。
学習プロセスはChoregrapheでのメニュー、クリックビュー、ビデオモニターを
介して行うことができます。
視覚認識データベースを照合する仕組みです。
画像を認識すると認識している状況に変化がなくても定期的に出力をおこなうため、
明示的な停止のフローが必要になります。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
onPictureLabel(文字列)
onNoPicture(バン)
ボックス設定:なし
パラメータ:なし
### ▼Virtual Object Representation(仮装オブジェクト表現)
## ■Create Object Representation(オブジェクト表現を作成)
-世界の表現からオブジェクトを簡単に格納し削除することができます。
このボックスにWorldRepresentationで格納されたオブジェクトは、
3Dロボットビューで可視化できます。
入力:storeObject(ダイナミック)
removeObject(文字列)
出力:strageDone(文字列)
removalDone(文字列)
onError(文字列)
ボックス設定:なし
パラメータ:RemoveOnQuitの有無
## ■Edit Object Representation(オブジェクト表現を編集)
-世界の表現からオブジェクトの表示プロパティを簡単に編集することができます。
このボックスにWorldRepresentationに格納されたオブジェクトは、
3Dロボットビューで可視化できます。
入力:updateDisplay(ダイナミック)
出力:done(文字列)
onError(文字列)
ボックス設定:なし
パラメータ:なし
## ■Move Object Representation(オブジェクト表現を移動)
- 世界の表現からオブジェクトを簡単に移動することができます。
このボックスにWorldRepresentationに格納されたオブジェクトは、
3Dロボットビューで可視化できます。
入力:updatePosition(ダイナミック)
出力:done(文字列)
onError(文字列)
ボックス設定:なし
パラメータ:なし
## ■Represent Object(オブジェクトを表現する)
- WorldRepresentationから単一のオブジェクトをプッシュまたは削除
することができます。
WorldRepresentationに格納されたオブジェクトは、3Dロボットビュー
で見ることができます。
詳細は、パラメータを参照してください。
入力:Display(バン)
onStop(バン)
出力:onStopped(バン)
onError(文字列)
ボックス設定:なし
パラメータ:オブジェクト名(デフォルト値はMyObject)
親名(World、Robot、Robot_Torso、Robot_Head)
カテゴリ名(デフォルト値はUserObjects)
x
y
z
Wx
Wy
### ▼Hearing(聴覚)
## ■Sound Loc.(音源位置検出)
- 音が検出されるたびに音源の位置、頭の位置の出力を行います。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
sourceLocation(数)
headPosition(数)
ボックス設定:なし
パラメータ:Threshold to be sure the location(%)
Volume sensitivity(%)
## ■Sound Peak(音声波形検出)
- 音の波形を検出します。検出されるたびに、onPeak出力を出力します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
onPeak(バン)
ボックス設定:なし
パラメータ:感度
## ■Sound Tracker(音を検出)
- 音を検出し、まわりの音に追従します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
targetLost(バン)
targetReached(バン)
ボックス設定:なし
パラメータ:モード(頭、全身、移動を伴う)
エフェクター(両腕、左腕、右腕)
場所確認のしきい値(%)
距離(m)
Xしきい値(m)
感度
### ▼Human Understanding(人間理解)
## ■Get Age(年齢取得)【2.3】
- ロボットの前にいる人の年齢を返します。
パラメーターでしきい値とタイムアウトの時間が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(数)
onError(文字列)
ボックス設定:なし
パラメータ:Confidence Threshold
Timeout(秒)
## ■Get Age (Multi)(年齢取得マルチ)【2.3】
- ロボットの前にいるすべての人の年齢を返します。
パラメーターでしきい値とタイムアウトの時間が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(ダイナミック)
onError(文字列)
ボックス設定:なし
パラメータ:Confidence Threshold
Timeout(秒)
## ■Get Gender(性別取得)【2.3】
- ロボットの前にいる人の性別を返します。
パラメーターでしきい値とタイムアウトの時間が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(文字列)
onError(文字列)
ボックス設定:なし
パラメータ:Confidence Threshold
Timeout(秒)
## ■Get Gender (Multi)(性別取得マルチ)【2.3】
- ロボットの前にいるすべての人の性別を返します。
パラメーターでしきい値とタイムアウトの時間が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(ダイナミック)
onError(文字列)
ボックス設定:なし
パラメータ:Confidence Threshold
Timeout(秒)
## ■Get Expression(表情取得)【2.3】
- ロボットの前にいる人の表情を返します。
パラメーターでしきい値とタイムアウトの時間と必要な表情が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(文字列)
onError(文字列)
ボックス設定:なし
パラメータ:Confidense Treshold
Timeout(秒)
neutral
happy
surprised
angry
sad
## ■Get Expression (Multi)(表情取得マルチ)【2.3】
- ロボットの前にいるすべての人の表情を返します。
パラメーターでしきい値とタイムアウトの時間と必要な表情が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(ダイナミック)
onError(文字列)
ボックス設定:なし
パラメータ:Confidense Treshold
Timeout(秒)
neutral
happy
surprised
angry
sad
## ■Get Smile(笑顔取得)【2.3】
- ロボットの前にいる人が微笑かどうかを検知します。また笑顔の度合いを取得します。
パラメーターでしきい値とタイムアウトの時間が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onSmile(文字列)
onNoSmile(バン)
onError(文字列)
ボックス設定:なし
パラメータ:Confidence Threshold
Timeout(秒)
## ■Get Smile (Multi)(笑顔取得マルチ)【2.3】
- ロボットの前にいるすべての人が微笑かどうかを検知します。また笑顔の度合いを取得します。
パラメーターでしきい値とタイムアウトの時間が設定できます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(ダイナミック)
onError(文字列)
ボックス設定:なし
パラメータ:Confidence Threshold
Timeout(秒)
## ■Preload Mood(ムードの事前読み込み)【2.3】
- Get Moodボックスを使う前にALMoodを初期化します。
パラメーターの動作モードは以下の通り。
「アクティブ」ALMoodすべての必要なエクストラクタを起動。
「パッシブ」ALMood抽出サブスクリプションを管理しない。
入力:onStart(バン)
onStop(バン)
出力:onSuccess(バン)
onError(文字列)
ボックス設定:なし
パラメータ:Operating Mode(Active、Passive)
## ■Get Mood(ムード取得)【2.3】
- ロボットの前にいる人の感情的な反応(ポジティブ、ニュートラル、ネガティブ、不明)を検知します。
パラメータのイベントラベルでユーザーの気分の情報と分析するイベントの名前をつけます。
パラメータ「クラウドに送る」がチェックされている場合は、クラウドへ情報を送信します。
このボックスを使う前にPreload Moodを接続しておくことを推奨します。
入力:onStart(バン)
onStop(バン)
出力:onError(文字列)
ボックス設定:なし
パラメータ:Event Label(デフォルトではjoke_1)
Send to cloud
### ▼Touch(タッチ)
## ■Bumpers(バンパー)
- バンパーセンサーをチェックします。
もしバンパーが刺激されると、onLeftまたはonRight出力を行います。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
onLeft(バン)
onRight(バン)
ボックス設定:なし
パラメータ:なし
## ■Foot Contact(足への接触)
- 足への接触の変化を検知します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
onContact(バン)
onLostContact(バン)
ボックス設定:なし
パラメータ:なし
## ■Tactile Head(頭の触覚センサー)
- 頭がさわられたことを検出します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
frontTouched(バン)
middleTouched(バン)
rearTouched(バン)
ボックス設定:なし
パラメータ:なし
## ■Tactile L.Hand(左手の触覚センサー)
- 左手のタッチを検出します。
Pepperにおいて出力されるのはbackTouchedのみとなります。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
leftTouched(バン)
backTouched(バン)
rightTouched(バン)
ボックス設定:なし
パラメータ:なし
## ■Tactile R.Hand(右手の触覚センサー)
- 右手のタッチを検出します。
Pepperにおいて出力されるのはbackTouchedのみとなります。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
leftTouched(バン)
backTouched(バン)
rightTouched(バン)
ボックス設定:なし
パラメータ:なし
## ■Touch Detection(タッチの検出)
- タブレットがタッチされたときに、イベントを送ります。
(パラメータは、変数Actionを [On touch down]にセットします。)
入力:onStart(バン)
onStop(バン)
出力:onTouched(ダイナミック)
ボックス設定:なし
パラメータ:アクション(オンタッチムーブ、ダウン、アップ)
### ▼Infrared(赤外線)
## ■IR Get 1 Byte(赤外線通信で 1byte取得する)
- 他のロボットから0〜255の1バイトの値を赤外線で受信します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
uInt8(数)
ボックス設定:なし
パラメータ:なし
## ■IR Get 4 Bytes(赤外線通信で 4byte取得する)
- 他のロボットから0〜255の4バイトの値を赤外線で受信します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
uInt32(数)
ボックス設定:なし
パラメータ:なし
## ■IR Get IP(赤外線通信でIPを取得する)
- 赤外線センサーから受信したIPアドレスを出力します。
IPアドレスは、文字列として取得できます。
例:"192.168.0.26"
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
ip(文字列)
ボックス設定:なし
パラメータ:なし
## ■IR Get Key(赤外線キーを取得する)
- リモートコントローラーのでロボットを制御するために、赤外線キーを取得します。
受信したいリモートコントロール名でのリモートパラメータを設定する
必要があります。
ロボットはそのリモコンからのキーを受信すると、キー名は出力に送られます。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
keyPressed(文字列)
ボックス設定:なし
パラメータ:リモート(ALL)
リモートしきい値
## ■IR Send 1 Byte(赤外線通信で1byte送信する)
- 他のロボットに0〜255の1バイトの値を赤外線で送信します。
入力:onData(数)
出力:onSend(バン)
ボックス設定:なし
パラメータ:なし
## ■IR Send 4 Bytes(赤外線通信で4byteを送信する)
- 他のロボットに0〜255の4バイトの値を赤外線で送信します。
入力:onData(数)
出力:onSend(バン)
ボックス設定:なし
パラメータ:なし
## ■-IR Send IP(赤外線通信でIPを送信する)
- 他のロボットにIPアドレスを赤外線で送信します。
IPアドレスを含む文字列がonStartに適用されます。
例:"192.168.0.5"
入力:onData(文字列)
出力:onSend(バン)
ボックス設定:なし
パラメータ:なし
## ■IR Send Key(赤外線キーを送信する)
- リモートコントローラーのでロボットを制御するために、赤外線キーを送信します。
リモートコントロール名と、送信したいキーの名前でリモートパラメータを
設定する必要があります。
入力:onSend(バン)
出力:onSent(バン)
ボックス設定:なし
パラメータ:リモート(TV、DVD、VCR)
キー(KEY_0など)
## ■IR Side(赤外線サイド)
- ロボットが右目で赤外線信号を受信した場合は、右目の出力をアクティブにします。
もし左目で受信した場合は、左の出力も同様にアクティブにします。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
leftEye(バン)
bothEyes(バン)
rightEye(バン)
ボックス設定:なし
パラメータ:なし
### ▼Sonar(ソナー)
## ■Sonar(ソナー、音波測深機)
- 超音波センサで障害物を検出します。
入力:onStart(バン)
onStop(バン)
出力:onStopped(バン)
onNothingLeft(バン)
onNothingRight(バン)
onObstacle(文字列)
ボックス設定:なし
パラメータ:なし