kanizaのブログ

コンピュータ、ソフトウェア、映画、音楽関連や家族のことなど、思いついたことを書きます。

「自動人形の城」を読んだ

しばらく前に買って本棚に飾ってあったのをようやく読んだ。読みはじめたら面白くて、その日のうちに読み切った。

わがまま放題で育った王子様が、自業自得のきっかけでピンチに陥り、成長しながら克服していくというストーリー。副題に「人工知能の意図理解をめぐる物語」とあるように、この本のキモはストーリーというよりも、言語・非言語による人と人、人と機械のコミュニケーションにおける課題を描いている点にある。著者の川添愛氏は言語学者だしね。

どういうことかというと、王子はわがまますぎて学ぶことから逃げ続けてきたため、文章を書いたり言葉で伝えたりするのが得意ではない。そんな中、あることをきっかけに、言われたとおりにしか動かない自動人形を操らなければならなくなる。

もともと王子は、たとえば「腹が減った」と言えば召し使いが食事を用意してくれるような環境で育っているのだが、自動人形が相手ではそうはいかない。「腹が減った」と言っても、自動人形は「私もお腹が空きました」みたいな返事をするだけ。せめて「腹が減ったので食事を作ってくれ」と言わないと、食べものは出てこない。でも「食事」にもいろいろある。食べ物なら何でもいいのか。真冬に冷やし中華を出されたら残念な気持ちになるよね(本の実際の記述はもっと丁寧で面白く書いている)。

このへん、プログラミング経験者ならよくわかる感覚だと思う。「プログラムは思った通りには動かない。書いた通りに動く」という格言があるが、この自動人形も同じ。プログラミングというのは、人間がやってほしいことを、コンピュータに伝わる粒度・言語・構造に変換して厳密に記述する営みだ。王子は、自動人形を思ったとおりに操るために、プログラマがバグを直すような試行錯誤を繰り返すことになる。

それをAIがうまく理解してくれよ、という話ではあるが、表現された言葉の「意味」を理解することと、話者の「意図」を理解することの間には開きがあるというのは、僕が学生時代に自然言語処理をやっていたときにもあった課題だ。いま、ChatGPTは言葉のコミュニケーションについて、書いた人の「意図」をかなりの精度で当てているように見える。だが、ChatGPT的なものが搭載された「自動人形」が生まれたとき、どこまで意図を伝えて思ったとおり操ることができるか。うーん、まだ難しい問題があるように感じる。

この本、プログラミングに苦手意識がある人におすすめしてみたい。あと、自分の言葉(言語)や行動(非言語)によるコミュニケーションに自覚的になる機会を与えてくれる本でもあると思う。若い人に読んでみてほしいですな。