Tech Sketch Bucket of Technical Chips by TIS Inc.

【コラム】自律移動ロボットへの取組み

Pocket

TISでは、明治大学理工学部機械工学科ロボット工学研究室(黒田洋司教授)と共に、NEDOが募集した「次世代ロボット中核技術開発」プロジェクトの研究開発項目である「革新的なロボットインテグレーション技術」に応募し、「知識の構造化によるロボットの知的行動の発現研究開発」というテーマで採択され、現在研究開発を進めつつあります。今回の投稿では、私達が何故この取組みを行っているのかと、現在そして今後の取組みの方向性などを簡単にまとめておこうと思います。

なぜこの取組みを行っているのか?

私達TIS戦略技術センターのロボットに関する取り組みは、主に人の生活の中で、人のパートナーとして活躍するサービスロボットにかかわるシステムに関するものとなっています。

一口にサービスロボットと言っても、様々な形態のものがあるのは、すでによく知られているかと思います。特に日本人にはその傾向があるようですが、産業用ロボット以外でロボットと聞くとまず人型、ヒューマノイドを思い浮かべる人が多いのではないでしょうか?

私達のセンターにもヒューマノイドのカテゴリに入るロボットが何体かいます。例えば話題のPepperや同じAldebaran RoboticsNao、広義でとらえれば、これもヒューマノイドといえるだろうヴイストン社Sotaなどです。

これらのヒューマノイドは、その人型の形態が端的に示すとおり、今のところは人とのコミュニケーションを行うことを主な仕事としています。ロボットを人の生活の中に導入しようとすると、どうしても人との対話は必要となります。人と自然に対話できるのは、何より人です(いや、そうじゃない、そんなことないという意見もあるかもしれませんが)から、その形態・機能を機械であるロボットに再現し、よりスムーズな利用(利用ではなく共生かもしれませんね)ができるようにする数々の試みが行われていますし、私達も行っています(NAISTとの共同研究など)。

Pepper    Sota

                  PepperやSota達

一方で、人の生活の中で役立つという観点からすると、ヒューマノイドのように人型をしていないロボットもありえます。例えば、荷物の集荷・運搬・配達、みなさんおなじみの清掃(家庭用だとRoombaは有名ですね)など、必ずしも人型をしていなくてもよい用途については、それぞれ適した形状が考案され、実際に動くロボットとして作られています。彼らは、人のサポートをするために、さかんに動き回り、仕事をこなして行きます。今回の研究開発でターゲットとなるのは、主にこちら側のロボットになります。

ヒューマノイド型のロボットも当然移動はしますが(Sotaのようなテーブルトップタイプのロボットは別として)、どちらかというと、後者のヒューマノイド以外のロボットの方が、全般的に広い範囲で動き回っているというのが、こなすべき役割的にも、今のところは言えるはずです(今後ヒューマノイドが街を闊歩するような時期がくれば、また変わってきますが)。

kobuki

        戦略技術センターにある実験用の小型移動ロボット「Kobuki」

彼らは人が生活する空間(屋内外どちらも含む)を把握し、その中を人と同じように動きまわることが必要となってきます。しかし、人が生活している空間は、例えば一般の家屋・マンションから、オフィスビル・駅・空港といった公共施設、様々な建造物・設置物や道路が混在する街全体など、複雑で多岐にわたります。

人と協働し、本当の意味でのパートナーとして彼らが活躍するためには、その複雑で多岐にわたる環境の中をよりスムーズに動き回れるようになる必要があり、今回の取組みもそれを目指したものとなります。ロボット達が適切な役割分担を行って人をサポートするという観点で、対人のコミュニケーションとともに、重要な領域と考えています。

説明1

これまでと現在

明治大学の黒田研究室では、これまでの研究で、いくつものロボットを作成しています。冒頭の説明の中に研究室の特設サイトのリンクを含めていますので、詳細をご覧になりたい方はそちらを見ていただくとして、今回は私達と連携させていただく範囲に関連する部分のみをお話します。

黒田研究室で継続的に研究されている要素技術として、SLAMがあります。SLAMとはSimultaneous Localization and Mappingの略で、ざっくりとした説明をすると、測域センサ・カメラ・ロータリエンコーダなどなどの測定値を利用して、ロボットが自分の空間的な位置を推定しつつ、同時に移動中の空間の地図も作成するという技術です。これ以上の踏み込んだ説明は、それだけで1エントリー以上の内容になってしまうので避けますが、SLAMを利用することの利点としては、例えばGPSなどのようなグローバルな位置情報を提供してくれる外部のシステムとの接続が不可能な状態に陥ったとしても、ロボットが自ら行う位置推定と作成した地図によって継続的な行動が可能になるということが挙げられます。

黒田研究室ではこれまでの研究で、レーザーレンジスキャナ(LIDARと呼ばれているGoogle Carの上に載っているあれです)を利用して、位置推定及び3次元地図の作成が行える技術の蓄積を行っており、特定の場所から場所へ移動するということであれば、かなりの精度で行えるロボットをすでに実現しています。

3DMAP_3

                      3次元地図の例

ただ、実際に人と協働したりサポートする仕事をするとなると、ただ特定の場所と場所の間を移動をするだけでは足りません。その移動の間に様々なタスクをこなしていく必要があります。例えば、エレベータやエスカレータに乗る、そのための操作をする、形状の異なる様々な扉を開けるなど、人が普通に行っていることを人が普通に使っている同じものを使って同じように行えるようになる必要があります。また、ビルの中や街の中など人が雑多に動き回っている中を、安全に配慮しながら、適切なパスを発見して移動できるようになることも必要です。

このような、人間が設置した環境に存在する様々なものがなんであるかや、周囲に存在する人間自身の動きをロボットが理解し、行動に必要なタスクをロボット自らが構成できるようなシステムを実現するのが、今回の研究開発の目的となります。

研究では、最近の人工知能研究の流れの中で注目されているDeep Neural Networkと既存技術とを組み合わせて応用し、環境理解やタスク構成、作成したマップへの意味付けなどを行っていきます。個々の要素の踏み込んだ内容については、公開可能な範囲で公開可能なタイミングがきたら、また記事を書くつもりですが、これまでの成果を利用したロボットが少しずつ動き始めています。現在行われている実験では、ロボットが単独でビル内を移動し、人が普段利用しているエレベータにボタン操作をしながら乗り込み、目的の階まで移動するという基礎的なタスクの実行が試されています。ボタンを押すマニピュレータの動作や一部環境認識は、先述のDNNによって実現されています。

grand_test_1 grand_test_2

                   新宿グランドタワービルでの実験

また、画像は、TISの本社が入っている新宿グランドタワービルでの実験の様子です。普段研究が行われている明治大学の構内以外の実環境でも動作可能かを実験しています。TISのビルでも、明大構内での実験と同様に、グランドタワー1Fのホールからエレベータに乗り、総合受付がある14Fまでを単独で移動するというタスクを実行しています(エレベータの階数ボタンは今のマニピュレータの可動域などの都合から、人が押していますが)。技術的な内容と合わせて、このように実環境での実験の様子についても、今後追々公開し、お話できるようにしていきます。

今後について

現在までの状態で動いているロボットについては、まだロボットの中に閉じたシステムになっていて、ほぼこれまでの黒田研究室の継続研究の延長にある構成になっています。今後はここにクラウドとの連携を加えたシステム全体を検討していく段階に入っていきます。

クラウドとロボットを接続することで、ロボット上だけでは限界がある、環境認識に向けて利用可能なコンピューティングリソースを、より柔軟に大規模に利用できるようにするということと合わせて、単独のロボットに閉じたシステムにするのではなく、複数のロボット間で、データや学習済みのモデルなどを共有できるような仕組みや、ロボット外に設置されているセンサやカメラからのデータも利用可能とするような仕組みを検討していく予定です。

説明2

具体的な内容や研究の状況については、すでに何度か述べたように、公開できる範囲でまた記事を書くつもりですので、ご興味のある方には、引き続き注目いただきたいです。

エンジニア採用中!私たちと一緒に働いてみませんか?