堀内貴文@論文読み

主に読んだ論文(主にHCI分野)をまとめるために活用します。

Teaching Robot's Movement in Virtual Reality (1991)

f:id:horifumi7:20210107145037p:plain

https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=174739

(ここで言う"Virtual Reality"が今のVR HMDをしようした方法かどうかが気になる。=> Oculus Touch などのようなコントローラーではなくグローブを使用している。大体は同じ。VR自体は数十年前からあった;価格や視野角が改善されたのが近年、と言う話。)

どんなもの?

VR空間での動作を適切な形式で記録することで、実空間のロボットアームの動作を制御する一連のプログラムを作成する試み。プログラムを書かずにロボットの動作を指定できるところに意義がある。

この論文が書かれた当時は、自然言語処理モーションキャプチャの技術も現在ほどは優れていなかった。しかし、当時から、未来のロボットプログラミングの形として、自然言語処理と身振り手振りを用いて 、人に教えるときのようになるだろうと予想していた。

"hand gesture interface device"と"stereoscopic glasses"を装着してロボットの動作を設定する。

先行研究と比べてどこがすごい?

プログラムを書かずに、VR空間でロボットの動作を「実演」することで動作を指定する試みが、当時としては先進的なアプローチだった。

技術や手法のキモはどこ?

バーチャル空間でロボットの動作を規定する際、手にはDataGloveというものをはめる。今で言うTouch Controllersに相当するものか。制御のために有限オートマトンを設計した。

どうやって有効だと検証した?

(リングを棒に通す実験の様子が報告されている。)

議論はある?

今回はロボットの「動作」を指定するための手法だったが、似たような手法を「動作」以外のことにも応用できないかどうかが気になる(どういう挙動を検知したら音を発する、光を発する、など)。

次に読むべき論文は?

Active Learning Environments with Robotic Tangibles: Children’s Physical and Virtual Spatial Programming Experiences

 

f:id:horifumi7:20210107151442p:plain

まずコンピュータの画面上の操作でバーチャル空間の設定をして、その後 目と手にデバイスを装着して(今のVRバイスの原型のようなもの?)ロボットの動作を指定する。