Teaching Robot's Movement in Virtual Reality (1991)
(ここで言う"Virtual Reality"が今のVR HMDをしようした方法かどうかが気になる。=> Oculus Touch などのようなコントローラーではなくグローブを使用している。大体は同じ。VR自体は数十年前からあった;価格や視野角が改善されたのが近年、と言う話。)
どんなもの?
VR空間での動作を適切な形式で記録することで、実空間のロボットアームの動作を制御する一連のプログラムを作成する試み。プログラムを書かずにロボットの動作を指定できるところに意義がある。
この論文が書かれた当時は、自然言語処理もモーションキャプチャの技術も現在ほどは優れていなかった。しかし、当時から、未来のロボットプログラミングの形として、自然言語処理と身振り手振りを用いて 、人に教えるときのようになるだろうと予想していた。
"hand gesture interface device"と"stereoscopic glasses"を装着してロボットの動作を設定する。
先行研究と比べてどこがすごい?
プログラムを書かずに、VR空間でロボットの動作を「実演」することで動作を指定する試みが、当時としては先進的なアプローチだった。
技術や手法のキモはどこ?
バーチャル空間でロボットの動作を規定する際、手にはDataGloveというものをはめる。今で言うTouch Controllersに相当するものか。制御のために有限オートマトンを設計した。
どうやって有効だと検証した?
(リングを棒に通す実験の様子が報告されている。)
議論はある?
今回はロボットの「動作」を指定するための手法だったが、似たような手法を「動作」以外のことにも応用できないかどうかが気になる(どういう挙動を検知したら音を発する、光を発する、など)。
次に読むべき論文は?
Active Learning Environments with Robotic Tangibles: Children’s Physical and Virtual Spatial Programming Experiences