2023年03月03日

◆ AIが考えるには? .3

 ( 前項 の続き )
 前項の話を踏まえて、考える機械の原理を具体的に示す。 (完結編)

 ──

 (6) システム設計

 考える機械の原理を出すことにしよう。
 前項のことを踏まえると、ただの「記憶の呼び出し」ではなく、それ以上のことが必要だとわかる。つまり、「自発的に生じる概念」だ。知覚の記憶が自発的に生じるように、概念の記憶が自発的に生じることが必要だ。
 例示しよう。「美人」という概念がある。すると、「美人は?」という問いに対して、言語的説明のデータベース(国語辞典や百科事典のようなもの)から該当情報を引き出すのではなく、回答となる概念を自発的に発生させる。たとえば、事例としての「新垣結衣」「佐々木希」というような概念を自発的に発生させる。あるいは、「目がパッチリ」というような付随情報を自発的に発生させる。
 では、そのためには、どうすればいいか? そこが問題だ。

 概念の自発的な発生というと、単にランダムに発生させるだけでもよさそうに思える。だが、概念をいろいろとむやみにランダム発生させると、見当違いの概念が大量に呼び出されて、無駄情報だらけで、収拾が付かなくなる。これではナンセンスだ。そいうことを避けるには、自発的に派生するものを、ランダムではなく、もっと精選する必要がある。
 では、どうやって精選するか? そこが問題だ。

 一応、うまい方法がある。「関連度の高いものを抽出する」という方法だ。そして、関連度の高いものを抽出するという作業は、パーセプトロンの原理で実現できる。たとえば、「美人」という概念と「新垣結衣」「佐々木希」という概念は、もともと関連度が高いものとして結びつきができている。(パーセプトロンの上層でパターンの抽出ができている。) だから、「美人」という概念に対して、「関連度の高いもの」というフィルターで精選すれば、選び出された集団には「新垣結衣」「佐々木希」というような概念がすでに含まれているのだ。
 とすれば、「美人」という概念に対して、「関連度の高いもの」というフィルターで精選された集団のなかで、「自発的な発生」をランダムに呼び起こせばいい。そうすれば、何度目かには「新垣結衣」という概念が呼び出されるだろう。
  ※ 機械に個体差を認めて、個体差のなかに入力情報のバラツキを与えれば、個体ごとに思い出される概念は異なるようになる。ある機械は「新垣結衣」を思い出し、ある機械は「佐々木希」を思い出す、というふうに。機会に個性を与えることができる。

 以上の手法によって、「自発的に概念を発生させる」ことは可能となる。
 では、それは可能か? もちろん、可能である。というか、そのことはすでに ChatGPT で実現されている! (実現済みだ。)
 その意味では、「 ChatGPT は自発的に言葉を使う機械だ」と言えることになる。ある程度は、「考える機械」と言ってもいいことになる。
 実際、ChatGPT の回答文を見ると、まさしく人間が書いたような文章になっている。文章を見た限りでは人間とは区別しがたいほどなので、チューリングテストをパスするぐらいの「考える機械だ」と言うこともできそうだ。

 とはいえ、そこには限界がある。その限界は、前にも示した通りだ。つまり、「言語AIは意味を理解していない」ということだ。言語AIは、言語的にはまさしく「考える機械」としてふるまうのだが、それはあくまで言語上でのことにすぎないのだ。表面的な言語処理の点では「考える機械」と見えるのだが、実際的な意味理解の点では「考える機械」とはなっていないのだ。
 では、機械に意味理解をさせるには、どうすればいいのか? 機械がただの言語上の処理をするだけでなく、機械が言語の意味まで理解できるようにするには、どうすればいいのか?


 (7) 知覚との関連

 ここで問題だ。そもそも、意味を理解するとは、どういうことか?
 私の主張を言おう。それは、言語を言語として処理するだけでなく、言語を現実と結びつけるということだ。
 たとえば、「猫」という言葉がある。この言葉を理解するには、猫について記述された言語情報をどれほどたくさん蓄積しても、それだけでは十分ではない。言語情報では語り尽くせない情報が必要だ。その情報は、どこからもたらされるか? 視覚・聴覚・触覚などの知覚を通じてもたらされる。
 たとえば、「円」という言葉がある。この言葉を理解するには、円について記述された言語情報をどれほどたくさん蓄積しても、それだけでは十分ではない。言語情報では語り尽くせない情報が必要だ。その情報は、図形的な情報であり、(知覚としての)視覚を通じて理解される。
 このように、現実と概念を結びつけるものが、知覚だ。(コンピュータで言えば、文字情報だけでなく、マルチメディア情報だ。)

 そして、知覚を得るためには、言語情報をもつAIだけでなく、知覚の感覚器に相当するセンサー(カメラやマイクロフォンなど)が必要だ。このようなセンサーを機械が備えるということは、機械が肉体性を持つということだ。換言すれば、機械がロボット化するということだ。特に、機械が目や耳を備えることが必要だ。さらには、触覚や痛覚を感じる手足や胴体なども必要となる。
 つまり、機械が(真に)「考える機械」になるためには、頭脳をもつだけでなく、感覚器や肉体をもつロボットであることが必要になる。そうしてこそ、現実との関係を理解できるようになり、言語の意味を現実との関係として理解できるようになる。
 機械が「意味」を理解するには、そういうことが必要なのだ。


 (8) 知覚の概念

 では、機械が知覚と肉体を備えれば、それで機械は知性をもつと言えるようになるか? いや、そんなことはない。知覚に相当するセンサーを備えて、手足や胴体をもつたロボットというものは、すでに開発されている。だが、それらのロボットが知性をもったわけではない。もちろん、それらのロボットが意味を理解したというわけでもない。
 では、さらに何が必要か? それは、知覚を概念として理解することだ。

 その第1段階は、視覚を概念として理解することだ。これは Google のAIがすでに実現している。さまざまな画像を概念として分類することができている。ゴリラの画像を見て「ゴリラ」と認識し、自転車の画像を見て「自転車」と認識する、というふうに。
 また、(逆方向なるが)概念から画像を生み出すことは、Stable Diffusion のようなイラストAIがすでに実現している。「ゴリラ」という概念から、ゴリラのイラストを生成する、というふうに。
 なお、画像の認識については、次の事例もある。
  → 文章だけでなく視覚的なコンテンツも理解してIQクイズに答えられるAI「Kosmos-1」

 その第2段階は、聴覚を概念として理解することだ。これは、人の音声を言語として理解するという点では、Siri や アレクサでも実現できていたが、最近では音声認識機能と ChatGPT を組み合わせるという形で、ほとんど人間並みのことができるようになってきた。
  → 「これを待っていたんだ!」ついにChatGPTと音声で直接しゃべれるようにしちゃった

 その第3段階は、触覚や痛覚や温度感覚や味覚を、概念として理解することだ。このようなことは、まだあまりなされていないようだが、原理的には難しいことではない。測定器とパーセプトロンを組み合わせることで、かなり容易に実現できる。

 以上のような手法を用いて、知覚と概念を結びつけることが必要だ。


 (9) 知覚と感情

 さらにそのあとで、次のことが必要となる。
 「知覚を感情と結びつけること」
 特に、自分を肉体的に傷つけることの相当する、過度の熱さ・冷たさ・圧迫感・損傷感・空腹感などをもたらす感覚(センサーの測定値)に対し、不快や苦痛となる感情を得ることが必要だ。また、その感覚が緩和されたときには、快感という感情を得ることも必要だ。
 このように、知覚と感情を結びつけることがとても大切となる。それは知覚と概念を結びつけることを越えた関係である。また、そのためには、機械に感情回路が備わっていることが前提となる。

 ※ 「疑似的な感情」を、ChatGPT に言語的に組み込むことは、すでに実現している。
  → ChatGPTに感情回路を埋め込んだら、やべぇ感じになった
 ※ ただしこれは、言語的に処理するもので、感情回路が備わっているわけではない。あくまで(言語上で)疑似的な感情としてふるまうだけだ。


 (10) 考える機械

 以上によって、知覚と概念の結びつきを得たし、知覚と感情との結びつきも得た。こうして、機械は現実との関係を構築して、言葉を(ただの電子的な情報を越えて)現実と結びつけることができるようになった。ここまで来れば、機械はもはや「意味を理解できた」と言えるようになるだろう。
 ただしそのためには、機械が肉体を備えて、機械が感情を持つことが必要となる。それはもはや「人造人間」としての機械ができたことになる。「考える機械」の出現とは、そういうことだ。
 だが、そこまで来ると、機械にはもはや「人権」が生じるかもしれない。機械が「自分が壊されるのはイヤだ。死にたくない」と言って、反逆して、人間と抗争するようになるかもしれない。ほとんど SF の世界だ。(ターミネーター)




 (11) 創造性

 機械は人間並みになることができそうだが、まだ話は完結しない。並みの人間程度になるだけでなく、それをしのぐことはできないか? 特に、ありふれた判断をするだけでなく、創造的な思考をすることはできないか?
 よく考えると、これは困難だろう。理屈を出すだけなら、大量の理屈(仮説)を生み出せそうだが、そのほとんどはゴミのような思いつきになるだけだろう。そのような大量のゴミのなかから、試行錯誤によって、妥当なものだけを取捨選択するには、高度な知的能力が必要だ。
 そして、そのような高度な知的能力はどうすれば得られるかというと、どうしようもない。なぜなら、知的能力の創造性というものは、もともと定式化できないものだからだ。何かを創造する本人でさえ、その創造性がどこから生じたのかを説明できないことが多い。単に「どういうわけか頭のなかに思い浮かんだんです」というぐらしか言えない。
 その能力の定式化もできないし、判定基準もない。機械に何を教えるかも不明だ。こんな状況では、機械に「創造性」を与えることなどは、とうてい無理だろう。

 とはいえ、機械が大量に生成したものがどれも高品質だ、ということは、ある程度は可能だ。実際、絵画や音楽の分野では、かなり高品質の作品ができている。その意味では、少なくとも大衆芸術の範囲では、「機械に創造性がある」というふうに言えなくもない。

 言語芸術としての文学の範囲では、どうか? 現在は ChatGPT が凡庸なレベルな物語を書くことができている。
  → ChatGPTだけでAI小説を書いてみた。【アイデア出し?文章作成のやり方も解説】
  → 「ChatGPT」にSF小説を書いてもらったら恐ろしいくらい普通に面白い作品ができてしまった
  → 超話題の人工知能ChatGPTに“小説”や“詩”を書いてもらい、“プログラム”は実行してみた
  → 「ChatGPTで執筆した書籍」がAmazonで大量に売られている - GIGAZINE
  → 「AIが書いた盗作」の投稿が爆増しSF雑誌が新作募集を打ち切り
 凡庸なレベルで良ければ、創造性を発揮することもできている、と言えそうだ。ただし、人を感動させるほどの出来映えは、まだない。

 一方で、絵画の分野では、すでに高レベルのものが Stable Diffusion で実現している。前にも別項で紹介したとおり。
  → AIお絵描きの使い方: Open ブログ の後半
 
  ※ 一部は、下記。

princess3.jpg


  ※ 手の描画は滅茶苦茶だけどね。乳首(?)も変なところにある。


 (12) 統合

 以上でわかるように、個別の技術では、「考える機械」はかなり実現済みである。(その多くは 2022年以後の爆発的な技術開発によるが。)
 ただし、それらの個別の技術を統合することは、まだなされていない。たとえば、画像を見て「ゴリラ」という言語概念を得ることはできても、その言語概念と ChatGPT の言語データベースを統合して、ChatGPT に画像データベースを一体化することはまだできていない。音楽や自然音声を取り込むこともできていない。もちろん、痛覚や温度感覚を取り込むこともできていない。これらの知覚情報と ChatGPT の言語情報を統合することが、当面の課題となるだろう。

 ※ たとえば、「手」の画像と「手」の概念を統合することができれば、上記の画像のように滅茶苦茶な手が描かれることはなくなるだろう。



 【 関連項目 】

 [前項 (5) の]エラーの検出については、次の項目も少し参考になる。
  → エラー検出と笑い: Open ブログ
 
posted by 管理人 at 23:47 | Comment(2) | コンピュータ_04 | 更新情報をチェックする
この記事へのコメント
 最後に  (12)   を加筆しました。
Posted by 管理人 at 2023年03月04日 10:03
本当の意味での人工知能を作るには人間と同じレベルの知覚センサーが必要だ、と私も思っていたので、同じことを考える人がいて、ちょっと嬉しいです。

ただ、創造性に関しては、明確に反対というわけではないですが、少し腑に落ちない気がしています。
人工知能は計算機ですから、定式化しなければ創造性を持たせられないように思いますが、工学的に試行錯誤して、結果的に創造性のようなものを持たせることは可能なような気がします。なんとなく。
ゴミのような膨大な量の仮説から、役に立つものを取り出すのは、確かに困難だとは思いますが、人工知能に総合的な知覚や感情が備われば、それらのフィルターを通すことによって、マシな仮説に絞り込むことは出来ないのでしょうか?

マシンパワーと有限な時間という制約があるから、無理なんでしょうか?
Posted by カレー at 2023年04月10日 20:45
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

  ※ コメントが掲載されるまで、時間がかかることがあります。

過去ログ