研究紹介

これまでの研究成果を紹介します。

各スライドはクリックすると拡大表示されます。

物体の把持・運搬・収納を行う移動マニピュレータ
家事支援ロボットのシステム統合
小型物体の三次元形状モデルの自動生成
引き出しなどの構造物のモデル化と認識
布製品の発見と種別、操作中の布製品の状態認識
家電組み込み部品のカテゴリ識別
自動生成した物体モデルを入力とする把持計画
移動の誤差を考慮した物体の把持姿勢計画
仮想アームを用いた障害物回避手法
歩行者の発見と追跡の研究


 

物体の把持・運搬・収納を行う移動マニピュレータ

実環境で動作する知能ロボットには、様々な作業を行うことが期待できます。この研究では、基本的な作業として物体の把持・運搬・収納に着目し、一台のアームを搭載した移動ロボットでそれを実現しました。ポイントは、ロボットが操作対象の物体モデルをその場で生成し、どのような姿勢でその物体を掴むかについても、自動で計画できることです。幾何モデルや把持位置等の知識を事前に人手で与える必要はありません。(筑波大学知能ロボット研究室での研究成果)

pick_and_store(1)

下のスライドは、把持・運搬・収納行動の一連の流れを示しています。スタート地点から、操作対象のある場所まで移動して(操作対象の位置はあらかじめ与えています)、物体モデルの生成と把持計画をその場で行います。その後、背中の台に物体を載せて運搬し、キャビネットを開けて、物体をその中に入れます。物体モデルの生成については「小型物体の三次元形状モデルの自動生成」を参照してください。把持計画については「自動生成した物体モデルを入力とする把持計画」、キャビネットのモデル化については「引き出しなどの構造物のモデル化と認識」の技術が適用されています。

pick_and_store(2)

家事支援ロボットのシステム統合

双腕・頭部構成の上半身と二輪駆動型の台車からなる等身大ロボットを用いて、日常的な家事をこなすための認識・物体操作・システム統合技術を研究しました。下のスライドは、トレイ運搬、洗濯物片付けなどの作業を順番にこなす様子を示しています。(東京大学情報システム工学研究室における研究成果)

AR(1)

複数の物体操作を継続して行うためには、作業の失敗を検知し、そこから回復するための技術がとても重要です。本研究では、下スライド左側に示すような認識行動統合システムを構成しました。ここには、三次元幾何シミュレータを中心に置き、認識や動作計画に関する様々なソフトウェアモジュールが定義されています。このシステムをベースとして、様々な行動を容易に生成できるように単純な行動単位(Behavior Unit)を多数連結していく方式を採りました。さらに、失敗検知・回復行動を実現するための構造記述を提案しました。

AR(2)

小型物体の三次元形状モデルの自動生成

一台のカメラを動かしながら対象物体を撮影し、そこで得られた画像列を利用して、三次元形状復元を行う手法を研究しました。まず、画像から特徴点を抽出し、隣り合う画像間で特徴点の対応をつけます。この対応情報を利用してstructure from motionを適用し、物体の疎な形状復元を行います。その後、二枚の画像ごとにペアをつくり、二眼ステレオと同様の方式で密な形状復元を行います。最後に、スペースカービングと呼ばれる手法を適用して、形状の補正と色情報の付加を行い、最終的なモデルを出力します。知能ロボットに適した方法となるよう、逐次的に復元を行うアルゴリズムを構築しました。(筑波大学知能ロボット研究室での研究成果)
small_object_modeling(1)

引き出しなどの構造物のモデル化と認識

引き出しや開き戸などの構造物は、上述したような形状復元手法を単純に適用するだけではモデル化はできません。自分で操作する、もしくは操作している様子を観察するなどにより、構造の知識を得ることができます。この研究では、サーボフリー状態のロボットを人間が直接的に操作し、対象の操作方法を教示する(ダイレクトティーチ)方式を適用しました。この過程で提案されるIMモデルは、操作対象の発見や操作を行うために利用することができます。(筑波大学知能ロボット研究室での研究成果)

furniture_modeling(1)

ダイレクトティーチよりも簡便に教示を行う方法として、人間が操作している様子をロボットが観察するだけ、というアプローチが考えられます。この研究では三次元距離カメラを利用して、操作の様子を三次元点群の列として記録し、そこから家具の概形や構造パラメータの推定などを行いました。(東京大学情報システム工学研究室での研究成果)

furniture_modeling(2)

布製品の発見と種別、操作中の布製品の状態認識

テーブルの上に、無造作に置かれた一着の衣類があったとします。それがシャツなのか、タオルなのか、誰が使っているものなのか、といった判断はどのようにすれば可能なるでしょうか。この研究では、布地の違いやしわのでき方等を特徴量とする画像処理手法を提案し、一枚のグレイスケール画像から、布製品の種類が判断できるようにしました。

clothes_classification(1)

この手法では、一つの特徴量は数百次元の一次元配列として表現されます。既存の機械学習手法が適用しやすい形式です。本研究ではSVMを適用しました。あらかじめ様々な衣類の画像を知識として与えておけば、高精度な衣類の種別ができるようになります。

clothes_classification(2)

家電組み込み部品のカテゴリ識別

一般物体認識と呼ばれる分野に類する研究課題です。この研究で対象とした物品群は、小型物体、柔軟物、表面の光沢、物品表面が背景と同色、などといった困難な条件を備えたものです。三次元デジタイザを用いて得た形状モデルを入力として、カテゴリ識別を行いました。(東京大学情報システム工学研究室での研究成果)

electric_parts(1)

物体概形と局所形状の類似性の双方に着目した特徴量の提案により、従来手法よりも高い識別率を達成しました。また、形状の分析を行うための方法として、平面性判定を行いました。

electric_parts(2)

自動生成した物体モデルを入力とする把持計画

ロボットが自動生成した物体形状モデルは、人手で精緻に作成したモデルと比べ、形状誤差を多く含んでいます。そのようなモデルを入力として、物体を掴むための把持位置を決める計画手法を研究しました。この研究における物体形状モデルは、法線成分を付加された密な三次元点群として表現されています。このモデルに対して、二指ハンドの形状がうまくあてはまる場所を探索し、評価する方法を提案しました。(筑波大学知能ロボット研究室における研究成果)
grasp_planning

移動の誤差を考慮した物体の把持姿勢計画

人間は普段、「ものを掴む」動作をさりげなく行っています。そこでは、無数に存在しうる把持姿勢の候補から、なんらかの基準で一つを選ぶという判断を行っていることになります。この研究では、ロボットが把持対象物体を発見し、いくつかの掴み方の候補を得たという問題設定の元で、台車の立ち位置やアームの関節角度を決定する方式を提案しました。評価基準は「把持対象物の近くまで移動したロボットが把持姿勢を取ったとき、想定していた手先姿勢と実際の手先姿勢の違いが最も小さくなること」です。(筑波大学知能ロボット研究室における研究成果)

wheelbase_grasp_planning

仮想アームを用いた障害物回避手法

ロボットが部屋の中を移動するときには、周囲のものにぶつからない走行経路を都度考える必要があります。この研究では、障害物を回避するための方式として、仮想アームの導入を提案しました。障害物が近くにあることが分かった場合、その障害物に対して、仮想的なアームの先端を接触させ、ロボットの回避経路の生成に利用します。提案手法は、狭い経路での回避行動に向いており、二輪駆動車両や全方位車両などの構造の違いによる影響を受けにくいといった利点があります。
virtualarm

歩行者の発見と追跡の研究

屋外で人を乗せて移動するパーソナルモビリティロボットの研究です。目的地さえ設定すれば、あとはロボット自身が各種判断を行い、そこまで走行していきます。この研究では、ロボットの走行中に必要となる機能として、周囲の歩行者の発見と追跡を行いました。画像とLRF(Lase RangeFinder) を利用して、遠方にいる歩行者を発見し、その動きを追跡することができます。(東京大学情報システム工学研究室における研究成果)
pedestrian(1)