照明変動下での白/グレーのロボットハンドにおける手首・手のひら追跡の安定化(OpenCV/MediaPipe、10–30 FPS、オフライン)
白/グレーのPEPPERロボットハンドの座標を、さまざまな照明条件下でカメラから追跡しています。要件は リアルタイム 10–30 FPS、オフライン動作です。
目的
手のひらと人差し指先(基準点)の位置を安定して取得し、そこから手の向き/座標を推定する。
軽量・高速・実装容易・オフラインを優先。
前提・制約
デバイス:カメラ、深度センサ。
照明:大きく変動(LED/蛍光灯、影・反射あり)。
試したこと
MediaPipe Hands:model_complexity、min_detection_confidence、min_tracking_confidence、ROI クロップ等を調整。
ただし学習データが人の手であるため、白/グレーのロボット手では精度が低く(誤検出多い、リコール不安定)、多くを試しても改善は**約 50%**どまり。
相談・質問
白/グレーのロボット手に対して、照明変動に強い前処理はありますか?(可能ならHSV の推奨レンジも知りたいです)
アルゴリズム面で、誤検出(False Positive)を減らすために追加/削除すべき工程は?(例:カラーマスク+形態学処理+手首〜手のひらの幾何制約+トラッカー)
MediaPipe Handsを使い続ける場合、model_complexity / min_detection / min_tracking の設定や スケール/ROI は、白/グレー手が明るい背景と混同されにくいようにどう調整すべきでしょうか?
より軽量で **リアルタイム(< X ms/フレーム)**に適したモデルはありますか?(例:ArUco / AprilTag を用いたカラー・マーカー、tiny hand detector など)
深度情報を活用する場合、前腕〜手の領域だけを残して背景を除去するためのマスク/ヒューリスティックで有効な戦略はありますか?


