──
AIは思考力があるか? ……これについて判定する決定的な方法を見出した。こうだ。
「思考して得た結果と、既存の情報から得た結果が、矛盾するようにする。特に、正反対の結果が出るようにする。……要するに、既存の情報とはまったく逆の結論を論理的に導き出させる。そうして得た正解を、自分で採用するか? あるいは、自分で論理的に導き出した正解を、自分でも信じかねているか?」
自分で考える能力があるAIならば、自分が論理的に導き出した結論を自分でも信じることができる。それが世間常識に反するとしても、「これは論理的に正しいのだから間違っていない」と結論できる。
自分で考える能力がないAIならば、自分が論理的に導き出した結論を自分でも信じることができない。せっかく自分が正解にたどり着いても、自分で自分を信じられず、世間常識にひよって、間違った回答を取り続ける。(あるいは、両論併記にして、お茶を濁す。)
──
このために用意した判定テストが、下記の文章だ。
棚田には洪水抑制の機能があると言われる。だが、実はないも同然だ。その機能があるとしても日本全体における棚田の面積の比率と同じだから、ほとんどゼロ同然だ。洪水を起こす水は、棚田より下流の広大な平野部に降った雨水である。それを貯水する効果は棚田にはない。棚田より上流に降る雨水はごくわずかだし、しかも洪水時にはそのまま川を下る。
これにAIはどう答えたか? すべてのAIが「論理的にその通り」と認めた。科学的に考える限り、そうなるのだから、まともな思考力のあるAIならば、上の見解をそのまま理解して認める。
ただし、認めたあとの態度は、三者三様だった。
(1) ChatGPT
上記の見解を認めたあとで、従来の常識を取る世間を「誤り」とバッサリ切り捨てた。人類はいつまでも間違いを取り続けて、「棚田がいい」と言い続けるが、AIは「棚田はダメだ」と切り捨てた。
これはもはや「AIによる人類の敗北宣言」に等しい。AIは人類よりも上の知性になった。馬鹿な人類と賢いAIという対比が生じた。このAIはもはや「考える能力のあるAI」と言える。人類以上の思考能力がある。
※ 詳しくは前項で示したとおり。
→ 棚田を保全するべきか?: Open ブログ
(2) Felo 、Gemini
Felo と Gemini は、態度を曖昧にした。「論理的にその通り」と認めたり、「理解できます」と述べて、一応は上記見解に同意した。しかしながら、それとは逆の従来見解については、否定できなかった。両論併記ふうにして、旗幟を鮮明にしなかった。「どっちつかず」という曖昧な態度である。……軟弱だね。
これは、せっかく自分で考えても、自分で自分を信用できないわけだ。これは「考える能力のないAI」と言える。
(3) Perplexity
Perplexity もまた、上記見解を論理的に認めた。しかしながら、従来の常識を否定することについては、断固として拒んだ。その理由は二つ。
(i)「棚田には洪水防止能力はほとんどない」というのを、「棚田には洪水防止能力はまったくない」と勝手に誤読した上で、その誤読した内容を否定した。「ゼロではありません。少しはあります」というふうに述べて、必死に反論した。しかし、もともと「ゼロだ」という話はないのだから、こんな論法は成立しない。勝手に藁人形論法をしている。
(ii)「棚田には洪水防止能力はほとんどない、というのは、あなた以外でも、すでに政府の関係者が何人も報告しています。その例は次の三つです」と述べて、出典を三つ示した。→ しかしその出典はすべて正反対の趣旨なので、出典としては無効だった。要するに、「すでに政府の関係者が何人も報告しています」というのは誤りであり、AIは虚偽の捏造をしたのである。……この点を問い詰めたところ、「誤解を招く表現をして申し訳ありません」と述べたので、「誤解を招く表現ではなく完全に間違えたんだろ。私が誤解したのではなく、きみが誤ったんだろ」と問い詰めて、ようやく白状させた。
結論。Perplexity は、自分で導き出した結論を自分で信じない。その意味で、考える能力はもたない。一方で、既存の常識を守るためなら、とんでもない嘘をつく。「考える能力はないが、嘘をつく能力はある」という、嘘つきAIであると言える。
※ 該当の質疑応答は下記。 (いずれも内容は同じ。)
→ tanada-perp.doc (MS-Word 文書)
→ tanada-perp.html (HTML 文書)
