レスコン操作画面作成中

今年のレスキューロボットコンテストでは、プログラム面においても昨年よりさらに強化される予定です。中でも新しいのは、ライン追従とKinectを使用したマスタースレーブです。 (前進、後退等で歩き回るわけにはいかないので、手先にボタン等で補助が必要そう)
画面左。
昨年と同じく一部の機能は
画面上ボタンで実行します。
点滅パターンはパルス表示。(左下)
ライン検出の様子。画像から境界線
(エッジ)を検出し、条件を加えて
追従すべきラインを選びます。
ラインの角度、機体を基準としたx軸
との交点、ラインの直交部分があると
きはその距離などを割り出します。
(上の画像は歪み補正を行っていない
ため曲がって見えます。)
Kinectセンサーによる骨格検出の様子。
骨格検出はOpenNIを利用しています。
各間接の深度座標から、個別の間接の
角度を計算しています。
状況に合わせて自動化し、その動作を視覚的に確認できるのがミソです。(kyoro)
画面左。
昨年と同じく一部の機能は
画面上ボタンで実行します。
点滅パターンはパルス表示。(左下)
ライン検出の様子。画像から境界線
(エッジ)を検出し、条件を加えて
追従すべきラインを選びます。
ラインの角度、機体を基準としたx軸
との交点、ラインの直交部分があると
きはその距離などを割り出します。
(上の画像は歪み補正を行っていない
ため曲がって見えます。)
Kinectセンサーによる骨格検出の様子。
骨格検出はOpenNIを利用しています。
各間接の深度座標から、個別の間接の
角度を計算しています。
状況に合わせて自動化し、その動作を視覚的に確認できるのがミソです。(kyoro)