──
その問いには、前項の話を読めば、答えることができる。以下の通り。

言語AIは、人間の脳の構造を模しており、その言葉の使い方は、人間の思考過程と同様である。その意味で、言語的には、まさしく「考える機械」と言える。ただし、その考え方は、あくまでも言語的なものであり、それ以上ではない。特に、意味的なものではない。言語の意味を考えず、表面的な言語の利用の仕方でのみ、脳と同様であるだけだ。その点では、「思ってもいないことを口から言う口先男」というのに近い。
・ 好きでもないのに口先だけで調子のいいことを言って女をだます結婚詐欺師
・ やる気もないのに口先だけで調子のいいことを言って国民をだます首相
後者の例としては、次のことがある。
「同性婚法案の成立や、少子化予算の倍増など、実際にはやる気はないのに、国民受けだけを狙って、その場しのぎでやる気があるように吹聴する岸田首相」
こういうのは、何も考えずに、口先だけで言葉を出している。その言葉が何を意味するかということを考えず、言葉の国民受けだけを考えて、言葉だけを口に出す。……こういうのは、言語AIのやっていることと同様だ。
その意味では、言語AIは、岸田首相と同レベルには考えているとは言える。ただし、それは人間のレベルには及ばず、猿のレベルに近い。猿でさえ数語レベルの言葉を使うことはできるからだ。その点では、猿は言語AIよりも考える能力があるとも言える。(意味的な点でのみ。)
つまり、意味的には、こうだ。
人間 > 猿 ≧ 岸田首相 > 言語AI
言語処理的には、こうだ。
言語AI > 人間 = 岸田首相 > 猿
言語AIは、意味的には何も考えていないに等しいが、言語処理的には人間をはるかにしのぐ能力があると言える。「考える機械」と言えるかどうかは、その作業の分野しだいだ。
比喩的に言えば、「自動車は走る機械と言えるか?」という点については、「果たす役割しだいだ」と言えるのと同様だ。自動車は、人を運ぶという点では人間以上だが、急な階段を上るという点では無力に近い。果たす役割しだいで、白とも黒とも言える。
[ 付記 ]
言語AIは、言語を「表層的に処理している」だけで、「意味を考える」ことをしていない……という点については、次の例題解説がある。(エラー例)
「1100円でバットとボールを買いました。バットはボールより1000円高かったのですが、それぞれいくらでしょう」に対してバットを1000円、ボールを100円と答えてしまうような間違いをするのと同じような間違いをします。
( → ChatGPTのヤバさは、論理処理が必要と思ったことが確率処理でできるとわかったこと - きしだのHatena )
これについて、次の解説もある。機械でなく人間も、(論理的に考えずに)反射的に答えると、同様の間違いをするそうだ。
「バットとボールを合わせて1万1000円、バットはボールより1万円高い、ではボールの値段は?」などという質問は一見簡単に見えて、ハーバード大学、マサチューセッツ工科大学、プリンストン大学の学生のおよそ50%が答えを間違えてしまったそうです。誤った解を直感的に思い浮かべてしまう原因と対処法、対処法を仕事にも応用する方法について、ビジネス系ライターのハウィー・マン氏が解説しました。
3つの質問からなる簡単なテストで認知力の傾向を図るテストは「認知反射テスト(CRT)」と呼ばれています。そのうちの1つが前述の「バットとボールの問題」で、ほとんどの人が最初に「答えは1000円」と考えてしまうそうです。しかし、これは間違いで、答えは500円です。
もしボールが1000円ならバットは1万1000円ということになり、合計すると1万2000円で、質問と矛盾します。しっかり考えれば誰でも分かることですが、3428人の大学生を対象とした調査では約半分の学生が直感的に思いついた回答を残し、その回答を精査することがなかったとのこと。
( → 直感的に「正しい」と判断した問題は実は間違っているかもしれない、認知機能を暴く「バットとボール問題」と対処法とは? - GIGAZINE )
以上の違いは、言語を「表層的に処理する」ことと、「意味を考える」ことの違いに相当する。そして、言語AIがやっているのは、前者であって、後者ではないのだ。その意味で、言語AIは「考える機械」とは言えないわけだ。
※ 次項に続きます。 (真に考える機械をつくる話)