──
言語AIの原理と限界
言語AIの原理がどのようなものであるかは、前項までで説明した。どのようなことが背後でなされているかという舞台裏は、もはや理解できただろう。
このような原理を知れば、言語AIの限界もまた理解できるようになる。
言語AIは、一見して、非常に優秀だ。さまざまな専門分野の知識を大量に蓄積している知識人のように見える。たった一人で世界中の一流専門家の知識を兼ね備えたスーパーマンのように見える。(大谷翔平は、一人二役ふうだが、ChatGPT は、一人二役どころか、一人百役、一人千役、一人万役……というふうにも見える。)
だが、見かけ上はそうであっても、言語AIは実は知性をもたない。人工知能というよりは、人口無能に近い。なぜなら、自分自身では、何も考えないからだ。
実際、思考力を要求する質問を出すと、たちまち誤答を出す。次のように。
「1100円でバットとボールを買いました。バットはボールより1000円高かったのですが、それぞれいくらでしょう」に対してバットを1000円、ボールを100円と答えてしまうような間違いをするのと同じような間違いをします。
( → ChatGPTのヤバさは、論理処理が必要と思ったことが確率処理でできるとわかったこと - きしだのHatena )
この件は、先に詳しく言及した。
→ 言語AIは考える機械か?: Open ブログ の [ 付記 ]
どうしてこういう誤答が出てくるのか? それは、言語AIは何も考えていないからだ。単に言葉を表面的に処理しているだけだからだ。言葉の意味を理解しているように見えても、実は言葉の意味などまったく理解していない。単に言葉の関係性を統計的な頻度によって見出して、言葉と言葉の関係性に従って文章を生成しているだけだからだ。そのとき、どのような回答文が生成されたとしても、言語AI自身はその文章の意味をまったく理解できていないのである。だからこそ、「バットを1000円、ボールを100円と答えてしまうような間違い」が起こりがちなのだ。
──
以上のことを本質的に示せば、次のように言える。
「言語AIは、もっともらしい出任せを言うだけの口先野郎である」
たとえば、思ってもいないのに、舌先三寸で次々と出任せを語る口先野郎がいる。また、愛してもいないのに愛しているフリをして女客から金を巻き上げるホストもいる。……こういうのは、その場その場で、目先をしのごうとして、相手の歓心を買うような言葉をひねり出す。ここでは、自分がどう思っているかということは関係ない。とにかく相手が喜びそうな文句を、出任せで次々と口に出すのだ。
言語AIもそれと似ている。言語AIは実際に何かを考えているわけではない。単にその場で最も適切であるらしい言葉をひねり出しているだけだ。
だから、こう言えるわけだ。
「言語AIは、もっともらしい出任せを言うだけの口先野郎である」
「言語AIは、もっともらしい嘘を言うだけの嘘つき野郎である」
「言語AIは、信頼できそうなことを語る詐欺師である」
まあ、常に嘘をつくというわけではないのだが、100のことを語れば、95ぐらいは真実を語りながら、5ぐらいは嘘を紛れ込ませる、というようなことは、しょっちゅうある。
そして、どうしてそういうふうになるかと言えば、言語AIが非倫理的な悪党であるからではない。言語AIが何も考えていないからである。言語AIの語る嘘は、嘘を付こうとして付いた嘘ではない。自分でも嘘であるか嘘でないか理解しないまま、表面的に言葉をいじっているせいで、結果的に嘘が混ざり込んでしまうのである。自分でもそれが嘘であると理解できないまま。
こういう意味で、言語AIは、あまり信用できないし、あまり賢くないとも言える。
──
では、この問題は、どう解決すればいいか? その解決策は、すでに Microsoft が BingAI で示している。こうだ。
「言語AIと普通の検索とを組み合わせる。質問に対する回答を、ネット上の文献データから探して、その文献データの内容を教えるという形で、回答する」
この場合、回答文は、言語AIが言語的に生成したものではない。ネット上に見出された文章内容を、言語AIが要約して示したものだ。このような形で得られた回答は、その回答の内容がすでにネット上に存在しているので、一定の信頼度が確保されていることになる。
このようにして、真偽に対する信頼性を確保することができる。
※ Microsoft は、なかなか頭がいいね。
──
言語AIは、自分自身の文献データに依拠するだけでなく、ネット上の情報に依拠することで、膨大な知識を調査することができるようになる。(上記)
のみならず、(ネット上の情報だけでなく)プログラマーのプログラム情報を利用することで、プログラムの作成で補助をすることもできるようになった。
→ 驚くべき完成度!AWSでサーバレスAPIの作成をChatGPTに頼んだ結果 - Qiita
→ AIにコードまるごと解説してもらうと、界王拳100倍すぎる件|深津 貴之
また、次のような事例もある。
従来は3時間かかっていたコーディング前の事前調査を5分に短縮できたり、人力では9時間かかっていたアンケート分析が6分で終了するなど、「大幅な効率化が実現した業務もあり、……
( → ASCII.jp:9時間かかる仕事、6分で終了 パナ子会社「ChatGPTはビジネスに有効」 (1/3) )
ここでは、言葉についての表面的な情報(データ)を処理するだけなので、そのような作業に特化してあるも同然である言語AIの出番が立派にある、とも言えるわけだ。このような方面では、言語は百人力と言ってもいいだろう。(並みの人間以上に賢く見える。)……この点では、自動車が馬や人夫よりも優秀な働きをするのと同様だ。(それは、自動車が人間的な知能や体力を持つという意味ではない。)
──
ここまでに述べたことから、言語AIの長所も短所もわかる。
言語AIのやっていることは、言語的な処理だけである。その分野に特化した作業をやらせれば、百人力の仕事をなし遂げてくれる。一方、言語処理を超えた知能としての論理力・考察力を要求される場面では、言語AIは小学生並みの算数さえもできないありさまだ。
とはいえ、世の中の問題の多くは、正解となる知識がすでに文字情報の形でネット上に蓄積されている。だから、その「正解となる知識」をうまく探り当てることができれば、言語AIは「知性をもつ機械」のようにふるまうこともできる。……この点をうまく利用したのが、「 GPT に入試問題を解かせる」という試みだ。その試みでは、想像以上に優れた結果を出した。(普通の人間以上の成績なので、十分に合格点のレベルとなった。) この件は、先に下記項目で述べたとおり。
→ 言語AIの原理と能力 .1: Open ブログ
そこからグラフを再掲すれば、こうだ。
2023年3月に公開されたGPT-4版では、推論能力の向上により、Uniform Bar Examで上位10%に相当する成績を出せるまでに成長した。
( → 人工知能が日本の司法試験に挑戦! ChatGPT有料版の正答率は何%?GPT-4による追試結果も | クラウドサイン )
──
ともあれ、言語AIの能力やその限界は、以上のことから明らかになったと言えるだろう。うまく使えば、百人力の作業をなし遂げてくれる。下手に使えば、小学生以下の知性レベルの回答しか得られない。……馬鹿と挟みは使いようという。ちょうど、そんな感じだ。
そして、その違いがどこから来るのかが、ここまでに述べた説明から明らかになっただろう。物事の原理や背景を知れば、物事のふるまいがどうしてそうであるのかを、根源から理解できるようになるのだ。
※ シリーズはこれで完結します。 (おしまい。)
※ 以下は読まなくてもいいです。
【 追記 】
シリーズの初回項目に、次のコメントが寄せられた。
「パーセプトロンという単純な構造だけで、人間の思考のすべては説明できる」(.1)という主張と、「言語AIは何も考えていない」(.6)という主張とは、矛盾しているのではないか、という疑問だ。
なるほど。それもごもっとも。そこで、以下で説明しよう。
本項では「パーセプトロンという単純な構造だけで、人間の思考のすべては説明できるのである。」と述べたが、それは「原理が説明できる」というだけであって、「人間の思考の機能のすべてを構築できる」とまでは言えない。
まったく不明だったことの概略がわかるようになった、というぐらいの意味だけだ。あくまで概略なので、詳細がわかったという意味ではない。
「人間の思考のすべて」というのは、「思考という過程のすべて」という意味ではなくて、「絵画・ゲーム・音楽・言語理解」というような、大雑把にわけた諸分野のすべて、という意味だ。
比喩的に言えば、「地球のすべて」という言葉で、五大大陸のすべてを意味するぐらいだ。それ以上の詳細にまでは立ち入らず、ごく大雑把に見た場合の話だ。
では、詳細に考えるとどうか?
数式計算をするような論理力なら、現在のパーセプトロンの延長上の技術だけでも、何とか可能だろう。論理力計算用の論理システムを装備すれば、初歩的な数値計算はできるようになりそうだ。数学的な論理計算も、現在の技術の延長上で達成されるだろう。
→ AIが考えるには? .2: Open ブログ
一方、言葉の意味を理解するのは、容易ではない。それはパーセプトロンだけでは実現できない。では、どうするか?
ここでは、記憶を自発的に呼び出す機構が必要となる。
→ AIが考えるには? .2: Open ブログ
その上で、「機械が思考にはどうすればいいか?」という問題については、先に別項で結論を下した。
→ AIが考えるには? .3: Open ブログ
そのためには、機械が目や耳のようなセンサーを持ち、手や足のような肉体をもち、神経によって痛みを感じて、痛みに対する苦痛のような感情を持つことが必要だ。こうして機械が人造人間のような存在になれば、機械は言葉の意味を理解できるようになるだろう。そしてそこではパーセプトロンの働きが重要となる。
しかもまた、各種の理解をする能力(側頭葉の能力)を統合する能力(前頭前野の能力)もまた必要となる。ただし、前頭前野の能力もまたパーセプトロンの原理で足りるということは、強い確信を持って言うことができる。
「考える機械」については、基本原理はパーセプトロンだけでいい。ただし、それを補う細かな全体が備わらないと、人間の脳に匹敵するには至らないだろう。人間だって、単に脳があるだけでは、思考力は備わらないのである。