研究エリア公開ミーティングvol.4議事録

ロボットと人でどう違う? 研究者と考える"空気の読み方"

未来館では、「ピーコック」という自律走行ロボットがほぼ毎月展示エリアを走り回っています。周囲の人の動きなどをセンサーで捉え、人とぶつからないように動いているピーコック――もしかして、まわりの“空気を読んで”動いているのかも?!

未来館の展示エリアを自律走行するピーコック。円柱のような形をした本体は、360度青いLEDライトで囲まれているので、遠くにいても目立ちます。

私たちは、まわりの状況にあわせてさまざまな判断をしながら行動しています。人にぶつからないように間合いを図りながら歩くのも、会議でタイミングがかぶらないように発言するのも、“空気を読む”ことだと考えると、ピーコックのようなロボットも“空気を読んで”いると捉えられそうです。では、人とロボットは一体どんなしくみで“空気を読んで”いるのでしょうか? 共通点や違いはどんなところにあるのでしょうか? このテーマについて、研究者と考えるオンラインイベント「研究エリア公開ミーティングvol.4 私たちの“空気の読み方”は解明できるか?」を実施しました。

イベントにお呼びしたのは、未来館の「研究エリア*」に所属する二人の研究者。自律走行ロボットの研究者・佐々木洋子先生(産業技術総合研究所人工知能研究センター 主任研究員)と、人間の無意識について研究している心理学者の渡邊克巳先生(早稲田大学理工学術院教授)です。佐々木先生は、冒頭に紹介したピーコックを使って研究されています。ロボットと人間という異なる研究対象を持つお二人の間で、どんなお話が展開されたのでしょうか? こちらのブログでは、イベントのファシリテーターを務めた科学コミュニケーター田中が、内容を抜粋してご紹介します。

*未来館の研究エリアについては、こちら。https://www.miraikan.jst.go.jp/research/facilities/

イベントの様子。左上から、渡邊克巳先生、佐々木洋子先生、科学コミュニケーター・田中沙紀子

ロボットと人間の“空気の読み方”

今回のイベントのテーマである“空気を読む”。さまざまなシチュエーションがありますが、ここでは「人とぶつからないように移動する」という部分について考えてみましょう。移動において“空気を読む”とき、人間とロボットにはどんな共通点やちがいがあるのでしょうか?

渡邊先生「“空気を読む”ためには、人間もロボットもセンサーが必要です。外の情報を、センサーを使ってなんらかの形で取り入れているという点では、全く同じだと思います。ぶつからないように“空気を読む”上では、目の前の相手が最終的にどこに向かっているのかという情報と、相手の心の中にある行動の意図を読むことが重要です。ロボットの場合、相手の意図を読むのは難しいんじゃないかと思います。でも、機械学習を使えば、ロボットが人間とは違うやり方で空気を読めるようになるかもしれませんね」

佐々木先生「相手の意図を推定するのは、人のそばで動くロボットをつくる上では重要だと思いますが、まだまだ難しいですね。機械学習で判断できるようにするためには、『どうしたら意図を読めたか』の条件を設定して学習をさせる必要があります。でも、何をもって『意図を読めた』とするのかが難しいと思います」

機械学習の手法さえあればすべて解決できる! という単純な話ではないのですね。そもそも「意図を読む」というのは、なんとも漠然とした表現です。これが具体的に人間のどんな行為であるのかが解明されなければ、ロボットに意図を読ませることもなかなか実現できないのかもしれません。

佐々木先生「逆に、ロボット側から自分の意図をうまく伝えられれば、近くの人とうまくコミュニケーションができるんじゃないかと思いました。たとえば、本物の目じゃなくても、『ここを見ているよ』とわかるようなサインを出したらよさそうです」

ロボット側が人間の意図を判断するのが難しいなら、人間にロボットの意図を読み取って空気を読んでもらえばよい、というわけです。人間のほうが得意なことをやってもらえるよう、人間の行為を引き出すようなロボットをデザインすることも大事なのですね。

ロボットにも“雰囲気”を実装できる?!

イベント中は、お二人に視聴者からの質問も投げかけていきました。このブログでご紹介したいのは「誰かに後ろから見られていると、なんとなくわかるのはなぜですか?」という質問です。

渡邊先生「それは“雰囲気がわかる”という話と近いと思います。我々はふだん、音やにおい、温度などいろんな情報を認識しています。ですが、細かな情報だとどのセンサーを通して入ってきたかがわからず、たとえば音を聞いているのだけれど音としては認識できないということがある。意識にのぼらないような細かな多感覚の情報をなんとなく感じ取っていて、それがにおいだとか音だとかわからないときに、まとめて“雰囲気”と言っているような気がします」

佐々木先生「その話を聞いて、“雰囲気”を感じるのは、ロボットのセンサーを使えばできそうだと思いました。でも、人間の『遠くからでも見つめられていたら気づく』というような、すごく小さいけれども重要なことに気づける能力は、真似するのが難しそうです」

ロボットは、たくさんの情報をセンサーで取り入れて処理することは得意ですが、その情報のうちどれが重要な意味を持つかを、わずかな違いから判断するのは難しいということですね。一方で、ロボットでも人間のように“雰囲気”を相手に感じさせる、つまり“雰囲気”をつくり出すことはできるかもしれません。

渡邊先生「ほんのちょっとだけ(ロボット本体の)角度を変えるとか、視線もきちんと何かを見るのではなく、ほんのちょっとだけ左の方を向かせるなどしてみたときに、人がそれに対して反応したなら、“雰囲気”を実装できたと言えるかもしれません」

佐々木先生「ロボットが発する表現をちょっと変えて、人の反応を見てみるのはおもしろそうですね」

たしかに、人間が実際にどう感じるのか、とても気になります。“雰囲気”を実装したロボットが、私たちの生活に当たり前のようにいる未来もやってくるのでしょうか?

ぶつからないように“空気を読む”と、会話での“空気を読む”の共通点は?

このほかにも「ぶつからないロボットでも、すれ違ったときにイラっとする可能性がある」、「ぶつからないように“空気を読む”と、会話での“空気を読む”の共通点」など、興味深いお話がたくさんありました。このブログでお伝えしきれなかった分は、ぜひYouTubeのアーカイブでご確認ください。


研究エリア公開ミーティング vol.4 私たちの“空気の読み方”は解明できるか? (2020年10月30日開催)

次回の研究エリア公開ミーティングもお楽しみに!

次回の研究エリア公開ミーティングは、2021年6月16日(水)に実施します。タイトルは「あなたが望む“触りごこち”、どうやったら実現する?」(詳細はこちらをご確認ください→https://www.miraikan.jst.go.jp/events/202106161980.html)。研究者とは異なる視点をもった視聴者のみなさんが、ミーティングの大事なメンバーです。みなさんのご参加をお待ちしています!

「テクノロジー」の記事一覧