アイボ 行動プログラム

2006.11.5 初

このページはアイボを使った行動プログラムについてまとめる。ただし、現時点では成果物がないので、開発状況と検討メモの掲載となる。

■行動の目的

行動には目的が必要なのだが、指し当たってアイボに出来ることはないので、「外界情報の取得」それによる学習が目的となる。

■必要な情報

外界の構造を知ることが必要。基本的情報はあらかじめプログラムするのだが、空間を認識する必要がある。

■必要な機能

必ず必要な機能
  1. 移動 立ち上がったり、座ったり、こけた時に回復したりする行動も含む。
  2. 空間認識 壁の存在や部屋の構造を認識する。
  3. 物体認識 物体の存在を認識する。
必須ではないがぜひ欲しい機能
  1. 音声認識 人からの指示や、教えを乞うた場合の情報入力として。
  2. 音声合成 ステータス表示(いま、ロボットが何を考えているか)と、問い合わせ。
知能的な機能
  1. 空間認識 現在位置と壁の位置などから空間マップを構築し、その中での自分の位置を把握できる。
  2. 物体分析 色や形からその物体が「なに」なのかを認識できる。
  3. 行動認知 行動計画と合目的的行動。 歩くために立ち上がる、といったものの考え方。
  4. 知識構築 外界から得た情報と人に問い合わせた情報から知識を構築し、必要に応じてそのデータベースに問い合わせできる。
  5. 会話 言葉のやり取りで情報交換を行える。 文脈を理解し、「それ」「あれ」といった代名詞が使えるようになる。
「知能的な機能」はそのまま人工知能という感じだけど、色んな基本機能を組み合わせた上で情報処理として成り立たせる機能ブロックとしたい。

■動かした感じ

アイボは目に留まるモノをかたっぱしから調べる。近づいて見てそれが何かを知ろうとする。咥えてみたり、動かしてみたりしてそのモノの属性を判断してデータとして蓄積する。

また、動くことで自分の位置がわからなくなるのだが、なにかマークを見つけてランドマークを設定する。これを基点に行動し、空間を把握していく。

空間を把握したら部屋の移動などもできるようになる。今で見つけたモノを咥えて寝室へ持ってくるといったことができる。

たとえば、今はピンクボールを追いかけるといった行動もプログラムにより組み込まれて実行されている。 大脳的機能と小脳的機能があるのだが、トラッキングという行動は中間的な行動。トラッキングする相手の動きは基本的にランダムなのだから、小脳的機能では向上しないのだが、大脳的機能でカバーする。 歩きながらトラッキングするといった場合、歩くことで体がブレるため、首を逆に動かさなければならない。 ただ、これを歩行機能に組み込むとまたおかしいことになる。上位の機能から統合処理し、首を歩行に合わせて逆位相に振ることでトラッキングの負担が軽減するということがありえる。 トラッキング自体も意思を持って行われるべきで、人体でいうサッカードとは一線を隔する行動とすべきだろう。

※サッカード:衝動性眼球運動。 我々が視野周辺に現れた視覚対象を注視するために行なう速い眼球運動。

会話においては行動認知から経験を話せるようになる。

「赤いモノがあったので近づいてみたら赤い文字だった。」

とか。

テレビを見ていて急に立ち上がるアイボ。だが、すぐに座りこむ。
「どうしたの?」と聞くと、
「ボールと思って取りに行こうとしたらテレビだったのに気付いた。」

といった状況の説明ができる。

行動計画のつくりなどからこのような状況が生まれるのかどうかが分かれる。平行処理的なつくりであれば、「テレビを見ている」と認識する部分と、「ボールらしきものがあるから取りに行こう」という行動を起動する部分がプライオリティや興味度の関係で逆転する、などの状況が発生すると生じる現象。 発話内容も上記に記した克明な説明でなく、「ボール、とれない、てれび」 「アイボ、しっぱい」という程度かもしれない。

こうしてみると、モノを咥える機能の実装より、空間認識や物体分析、知識構築などの方を先に実現したほうがいいかもしれない。

行動プログラム構成検討

行動プログラムSTEP1構想