人間が何かを他の人間に伝える。そのために音が、記号が、そして文字が発明された。
さて、では人間以外のモノ、特に人工的に作られたロボットとコミュニケーションするためにはナニが必要なのか?ということを様々な文献及び研究資料から紐解いてくれたのがコレ。
いきなりAIBOのハナシから入って、そもそもコミュニケーションってなに?何をもってコミュニケーション出来たって言えるの?そもそも人間と違う形のモノが人間と同じ感覚を持つこと自体がおかしくね?という根源的な問いから入ってるのが新鮮。でもとてつもなく文章が難解なので文系なヒトはフツウに途中下車しそうなヨカンがする。そういう意味では著者はコミュニケーションがお上手じゃないのかもしんない。でも元は京大の博士課程の学位論文だからね。
ただ、途中に出てくるRNN(Recurrent Neural Network)とか物事を評価するための並列的なシェマモデルとかを知るといわゆる自律的な知能はかなり実現が近そうなヨカンがする。そういう意味で前回大感動した「アイの物語」に通じるところがドキドキする。ていうか、あっちがこういう下調べを元に書かれたのかもしれないなんて思いついた。
宇宙ステーション全体に配置されたセンサーを自分の実体と認識するAIが人型アンドロイドに自分をダウンロードして、無力感とか寂しさを味わうっていう辺りとか、まさにココで言及されている「形が違えば認識できる感覚自体が違うはず。だからヒトと同じ形態を持たないロボットが思う世界は人間の思う世界とは違う」というココでのハナシをノベライズしたかのよう。あ、この本のネタじゃなかったww
とてつもなく並列処理が可能なOSでこういう並列エージェントとしてのシェマモデルを動かして、常に入ってくる情報を評価して自律的に行動する。なんか出来そうな気がしてくるなぁ。やっぱリアルタイムOSかなぁ。火星探査プロジェクトで向こうでまだ一生懸命動いてるローバーのことを思い出した。参考資料:http://ja.wikipedia.org/wiki/オポチュニティ
特に人間でもお互いが理解できる記号を使ってコミュニケーションする時って別に隠語でも記号でもアリ、それこそ「業界用語」で意思を伝達するっていうところとリーダーとフォロワーを使って台車を移動させるロボットを使った実験、でもその時にメッセージ交換させずにやらせる→当然失敗ばっかりって辺りは、コミュニケーションの特性をリアルな実験で確認していてホントに読んでてドキドキした。もうそういう実験が出来るんだって。
アイビスと詩音の物語が早く実現しないかなぁ。ということでこっちもオススメ。
最近のコメント