サールという哲学者の有名な思考実験に中国語の部屋というものがある。
英語しか喋れない人を部屋に閉じ込めて中国語の文章を与えて応答させる。このとき閉じ込められた人には辞書などを与えるのではなく、特定の記号の列が来たら、別の特定の記号の列を返すという事例が載ってある手順書を与える。この記号というのは要は漢字であり、漢文を与えられたときに別の漢文を返す手順書だけが与えられているということである。つまり部屋の中の人は中国語の意味は理解しないまま機械的に応答することになる。この手順書に完璧な応答パターンが網羅的に記述してあれば部屋の中の人が文章の意味を理解するということなしに外部の中国語話者と会話できるであろう。
この実験をチューリングテストとして行った場合、表面的には中国語で会話しているように見え、テストをパスするだろうが、中の人は漢文を理解しているわけではないので知性が返答しているわけではない。ただの手順書による機械的な処理の結果である。ゆえに外型的に会話が成立しているからといって知性の存在を検証できるわけではない。というような思考実験である。
ところで自分は学生時代にこの思考実験について知ったとき以下のような反論を考えた。
すべての会話に応答できるような手順書、それもコンテキストを保持し背景も含めて想定して返答できるような手順書があるとすればそのような手順書はとてつもなく長大で複雑になるに違いない。とすればその手順書こそが知性ではないだろうか?部屋の中の英語話者は言わばその手順書を読み取るチューリングマシンであってCPUなどに代替させても動くに違いない。だから部屋の中の英語話者は知性を駆動させる機械のパーツに過ぎず手順書こそが知性なのだ、と。
このアイディアはとくにそこから何か発展するわけではなく研究室での雑談として終わった話である。
しかし最近LLMの発展を考えると、この話は単なる思考実験に終わらない可能性が出てきたなと思い始めた。 LLMのモデルこそは「とてつもなく長大で複雑な応答手順書」である。生成AIは単にモデルを元に計算しているだけでしかなくそこに知性があるわけではない。しかし現に知性があるかのように振る舞っている。モデルが複雑化すればするほど知性的に振る舞えるようになるだろう。そのときモデルないしモデルを内包した系に知性が宿るのかどうか、それが中国語の部屋という仮説に対する実証実験になるはずである。