• GIZMODO
  • DIGIDAY
  • gene
  • cafeglobe
  • MYLOHAS
  • Glitty
  • machi-ya
  • roomie
  • GIZMODO
  • DIGIDAY
  • gene
  • cafeglobe
  • MYLOHAS
  • Glitty
  • machi-ya
  • roomie

ライフハッカー編集部ライフハッカー編集部  - ,,,  10:00 PM

次世代ロボットを普及させるには「学ばせる」のが近道

次世代ロボットを普及させるには「学ばせる」のが近道

150325robot.jpg


ロボット開発にルネッサンスが起こりつつある...。その予感はたぶん、勘違いではありません。現在、工業用から一般家庭でのコミュニケーション目的のものまで、さまざまな次世代ロボットが開発されつつあり、遠からず市場に投入されるでしょう。外見はこれまでのロボットとさほど変わらないかもしれませんが、その頭脳の部分は、実は大きく進化しているのです。

ロボットといえば工業用で、単一のタスクをこなすだけのために設計されていて、融通が利かない、というのがかつてのイメージでした。同じ作業を、人がやるよりも速く安上がりにこなし、理想を言えば、人が直接操作する必要はほとんどない、というくらいのメリットしか期待されていなかったのです。けれども、今日のロボットはそんなレベルではなく、もっとずっと順応性の高いマシンです。経験から学習できるうえに、人間と連携して作業ができるように設計されたものすらあります。すでに市場に出回っている(あるいは、間もなく投入される)テクノロジーで有名なものとしては、「Jibo」「Baxter」「Amazon Echo」の3つがあり、これらを見れば、現在のロボットでどこまでできるかがわかります。でも、どれもまだほんの序の口に過ぎません。


すべてをプログラミングするのは困難


こうした新世代の「スマートな」ロボットの開発をあと押ししたのは、技術上のさまざまな進歩です。分野によって違いはあるものの、すべてに共通するキーワードは「トレーニング」です。「ロボットのボディを作るのはそれほど難しくありません。現状、家庭内で人の役に立つロボットがあまり多くないのは、そのためのプログラミングが非常に難しいからです」と、ロボット工学のスタートアップ企業Brain Corporationの創設者でCEOであるEugene Izhikevich氏は述べています。

ロボットに複数の機能を搭載したい、あるいは、ひとつの機能しかないなら高い精度でこなせるようにしたい、というのが私たちの究極の希望です。けれども、多様なタスクをこなせるようにロボットをプログラミングするのは容易ではありません。ユーザーのニーズが高いいくつかの機能だけに絞っても難しいのです。まして、そうしたタスクをさまざまな環境で処理できるようにプログラミングするのは困難を極めます。家庭も工場も、1軒1軒違うのですから。

「そうした差異に対応できる能力を備えられれば、ロボットはいよいよ実社会に出て人間の役に立てます」と、スタンフォード大学客員教授で「RoboBrain」プロジェクトのリーダーであるAshutosh Saxena氏は言います。なお、Saxena氏は、ウェブメディア「Gigaom」の主催で3月18日と19日(米国時間)にニューヨークで開催される「Structure Data」カンファレンスで、この話題について講演を行う予定です。Saxena氏のほかにも、マサチューセッツ工科大学(MIT)「Interactive Robotics」グループのJulie Shah氏が登壇します。Gigaomではこれとは別に、人工知能(AI)の最先端に切り込む「Structure Intelligence」カンファレンスを、今年9月にサンフランシスコで予定しています。

話を戻すと、そんなわけで、ロボット開発においてはトレーニングが重要な鍵を握るのです。特に大学や研究所で行われているプロジェクトの場合、学習能力のあるロボットの開発を後押ししている原動力は、インターネットだと言っても過言ではないケースもあります。スタンフォード大学、コーネル大学をはじめとする複数の大学の共同研究プロジェクトであるRoboBrainも、その一例です。このプロジェクトでは、インターネット経由でアクセス可能なロボット用の「ナレッジグラフ」を構築するという目的に向けてウェブ上の情報を収集しています。プロジェクトの研究者たちが取り組んでいるのは、ロボットそのものの開発ではなく、ある種のデータベースの構築です(厳密には、「概念の具象化」を目指していると言ったほうが良いでしょう。「卵の見た目」「コーヒーの淹れ方」「人と話す方法」などに関わるデータを蓄えていくのです)。このデータベースには、ロボットが家庭や工場などで与えられた役割を果たす際に必要となる可能性のある情報が、蓄積されていきます。


必要なのは知識セットとトレーニング


RoboBrainは、複数のプロジェクトを包含したもので、それぞれ環境やタイプの異なる知識を対象としています。ウェブ上には無数の画像やYouTube動画などのコンテンツがあり、RoboBrainに「○○とは何か」「○○は可能か」などの知識を教えてくれます。RoboBrainの「ブレイン(脳)」は、認識するべき物事や理解すべきタスクの実例を見てトレーニングを重ね、自分の学んだことをサイトに投稿します。サイトの訪問者がその文章を読んで、正しければ「サムアップ」、間違っていれば「サムダウン」ボタンを押して評価してやることで、RoboBrainの学習内容はさらに強化されていきます。

一例として、RoboBrainを代表する「Tell Me Dave」というプロジェクトを紹介しましょう。これはSaxena氏がコーネル大学で始めたもので、ロボットがあるタスクを完遂できるよう、研究者や、ウェブを介してつながっているクラウド環境の実験協力者たちが、必要なステップをひとつずつ、手取り足取りトレーニングしていくものです。例えば、「インスタントラーメンを作る」というタスクを完遂するには、ロボットにはさまざまな知識が必要です。台所で目にするさまざまな物体はそれぞれ何であるか、どのような機能を果たすか、どう使えば良いか、与えられたタスクのどの段階で使用すべきか...。ロボットが実際の生活の中で使用される場合は、ユーザーから自然言語で指示を受けます(例えば、「インスタントラーメンを作って」など)。その際に、上記のさまざまな知識をすぐに取り出して利用できなくてはいけません。

個々のユーザーがロボットに肩代わりしてほしいと思うタスクの数だけ、この一連の知識セットが必要になるわけです。RoboBrainの存在意義もうなずけますね。Tell Me Daveが学べることには限りがありますが、知識の集約されたRoboBrainというデータベースにアクセスできるおかげで、特にトレーニングを受けたわけではない物事についても、理論上は知ることができるのです。例えば「壁の塗り方」もわかるし、「同じ部屋に人を入れるには、1人当たり少なくとも45センチ四方のスペースが必要」とかの知識も得られます。

このように、ロボットが実例を通じて学んでいく事例は、今では豊富にあります。たいていは実験室環境で行われていますが、米国防高等研究計画局(DARPA)の最近の研究では、前述のBaxterというロボットを対象に、YouTubeのビデオを見せて料理の仕方を覚えさせる試みがなされています(記事冒頭の写真)。

今もっともホットなAIテクニックである「ディープラーニング(深層学習)」は、コンピューターに視覚や音声認識、言語処理などといった人間の知覚を模倣させる試みです。この分野の発展も、ロボットのトレーニングを加速させてくれそうです。ディープラーニングのアルゴリズムを、一般に公開されている画像や動画などのメディアコンテンツを使ってトレーニングすれば、ロボットが「見た」モノが何か判断したり、「聞いた」言葉を理解したりする役に立ちます。Saxena氏によると、RoboBrainでもロボットが物体を動かしたり掴んだりするのに必要な正しいテクニックをトレーニングする際に、ディープラーニングを使っているそうです。


ロボットはそんなに賢くなくてもいい、という考え方


いっぽう、こういった動きに対立するグループもあります。彼らは、「ロボットは、RoboBrainプロジェクトが目指しているほど賢くなる必要はない。正しいか間違っているかを判断できるところまでトレーニングすれば十分だ」と主張しています。記事の冒頭で紹介したBrain CorporationのIzhikevich氏も、このことを証明しようとしています。同社ではニューロンの電位変化を模した専用のハードウェアおよびソフトウェアのプラットフォームを作成しました。Izhikevich氏によると、これはあらゆるロボットに搭載可能で、「さまざまな行動について、動物のトレーニングと同じような方法でロボットをしつけられる」そうです。

例えば、お掃除ロボットに、同社のOS(「BrainOS」という名前です)を組み込んだとしましょう。このロボットは、ネコを見てもネコだと認識することはできません。それでも、トレーニングを通じて、「この物体は掃除の際に避けて通らなくてはいけない」ということは覚えられます。ひょっとしたら、「ある状況ではこれは普通」「これは異常」という知識をしっかり仕込んでおけば、BrainOS搭載のロボットに、特定の物体を追跡させるとか、何か新しい物体が紛れ込んだのを検知させるとか、ほかにもさまざまなタスクのトレーニングが可能になるのかもしれません。

ロボットの振る舞いをすべてプログラミングしておくのではなく、トレーニングを通じて成長させるというアイデアに大きな問題点があるとすれば、ロボットを使う消費者や企業が、自分でロボットをトレーニングしなくてはならない、ということでしょう。Izhikevich氏は、消費者の手間を省くため、BrainOS搭載のロボットを実験室環境でトレーニングしておいて、その知識をコード化してプリインストールした状態で、製品として市場に出すこともありうると述べています。それでも、ユーザーが自分の環境や用途に合わせてロボットをパーソナライズしたいと思ったら、自分でトレーニングする必要があります。

モノのインターネットやスマートデバイスが一般に広まるにつれ、消費者はすでにそういう便利なアイデアに馴染みつつあります。中にはいやいやながら、という人もいますが。スマートサーモスタットの「Nest」セキュリティカメラの「Canary」のように、実際に必要な作業がアプリを起動してボタンをいくつか押すくらいのことだとしても、自分でデバイスをトレーニングしなくてはいけないなんて、かなり面倒な気がします。アルゴリズムの仕組みを知っているユーザーでも、面倒くさいと思ってしまうでしょう。

「ほとんどの利用例で、消費者は自分では何もしたくないだろうと私は考えています。電源ボタンをオンにしたら、あとはロボットが自動ですべてやってくれるのを期待しているのです」とIzhikevich氏は言います。

今からおそらく3年もすれば、Brain CorporationのOSを搭載したロボットが製品として市場に出回る、とIzhikevich氏は予測しています。そしてその頃には消費者も、この新時代のAIには大きな短所があるのを受け入れているでしょう。その短所とは、Izhikevich氏のたとえを借りるなら、「動物、もっと言えばイヌのようなもの」だということです。つまり、どの個体も吠えたり舐めたりの基本動作はできるけれど、名犬ラッシーとまではいかずとも、盲導犬や警察犬のように働いてもらおうと思ったら、それなりの訓練が必要なのです。


Why you can't program intelligent robots, but you can train them|GIGAOM

Derrick Harris(原文/訳:江藤千夏、吉武稔夫/ガリレオ)
Photo by Shutterstock.

MORE FROM LIFEHACKER

powered by

Kotaku

Recommended

© mediagene Inc.