──
概要
ノーベル化学賞も、ノーベル物理学賞も、AIの研究者に与えられた。では、どう違うか?
化学賞の方は、AI分野で最先端の研究に与えられた。ノーベル賞は通常、発表から数十年を経て、成果が確認されてから授与されるものだ。しかし今回は発表から短期間で授与されることになった。コロナのワクチンと同様で、成果があまりにも大きく、かつ、成果が確認済みだからだ。それだけ大きな成果があったからだとも言える。
物理学賞の方はどうか? こちらは逆で、何十年も前の基礎研究に与えられた。その成果が直接的に得られたからというよりは、分野全体が花開いたあとで、その基礎に貢献したことが認められたからだ、と言える。
では、具体的には、どんな貢献をなしたのか? それを探ろう。それには、AI研究の歴史を見ればいい。
パーセプトロン
AI研究の根底にあるのは、パーセプトロンだ。ここからすべては始まった。これが最初にあり、かつ、これが基本原理だと言える。

パーセプトロン
この図の意味は、前に説明した。そちらを参照。
→ AIが考えるには? .1: Open ブログ
パーセプトロンのモデルは、1957年にアメリカの心理学者フランク・ローゼンブラットによって考案された。
その後の研究者は、これを発展させて、より精密で高機能なモデルを与えようとして、改良に努めたのだが、結局は無駄なあがきにすぎなかった。最終的には、基本モデルはこのパーセプトロンに帰着した。最初にして最大のモデルだったと言える。
伊藤正男
パーセプトロンのモデルが出たあとで、これを現実の生物に適用することが考えられた。1970年頃、デビッド・マーとジェームズ・アルブスによって「小脳はパーセプトロンである」という仮説が相次いで提唱された。
神経生理学者の伊藤正男らが、(平行繊維-プルキンエ細胞間の)シナプスの長期抑圧を見つけたことで、小脳パーセプトロン説が支持されるようになった。
こうしてパーセプトロンが現実の生物において機能していることが判明した。
→ パーセプトロン - Wikipedia
( ※ さらには大脳も同様であろうと推定されたようだ。)
甘利俊一
しかしパーセプトロンという原理(1枚の図)から、現実の複雑なAIを構築するには、はるかに大きな距離がある。いったいどうやったらいいのか?
これはAIの黎明期だった。このころ、ニューラルネットワークという概念で、さまざまな研究成果を出したのが、甘利俊一だった。業績が独創的だったせいか、追随する人が少なくて、欧米ではあまり研究者も多くなかったようだ。そのせいで甘利俊一の業績が欧米で広く知られることも少なかった。
また、機械(コンピュータ)の性能がまだ低くて不十分だということもあって、現実の成果をともなうことも少なかった。基礎研究ばかりが進むこととなった。このころはAI研究の低迷期だとも言える。パーセプトロンの限界が指摘されることもあった。
ホップフィールド
こうして 1970年代の低迷期が続いたあとで、と 1982年にジョン・ホップフィールドが新たなモデルを提唱した。これが今回の物理学賞の理由となった「ホップフィールドモデル」である。これは次の図で説明される。

出典:Lab BRAINS

出典:IT navi
わかりにくいかもしれないが、これは物理学的なモデルとして理解するといい。
ポテンシャルエネルギーをどんどん引き下げていくと、最終的には谷底の部分に収斂する。そのとき、他の雑多な部分は切り捨てられる。……こういう形で、細かな雑音部分(ノイズ)が除去されていく。
ここでは「ノイズの除去」ということがなされる。そう聞くと、「あ、そう。で、それがどうしたの? ノイズの除去なんて、どうだっていいじゃない」と思うかもしれない。しかし、これは決定的に重要なことなのだ。なぜなら、ノイズを除去するということは、本質的なものだけを取り出すと言うことだからだ。そして、本質的なものを取り出すというのは、パターン認識なのである。
パターン認識。これこそがAIの本質だ。AIとは何かといえば、結局のところ、すべてのAIはパターン認識なのである。それというのも、パーセプトロンはパターン認識だからだ。
パーセプトロンの重要性については、前にこう述べた。
人間の思考とは何か? それは神秘のベールに隠されていると思われてきた。人間にはとうてい窺い知れぬ神秘な構造があると思われてきた。
しかし実は、パーセプトロンという単純な構造だけで、人間の思考のすべては説明できるのである。囲碁の能力も、絵画の能力も、言語の能力も、それぞれの能力は独自の複雑な構造を持つのではなく、いずれも「パーセプトロン」という単純な構造で説明できるのだ。
もちろんそこには非常に複雑な回路構成がある。だが、その複雑な回路構成は、「パーセプトロンの層を多層化する」ということだけで実現されてしまうのだ。高度で複雑な機能が、単純な構造を多層化するということだけで実現されてしまうのだ。……こうして人間の脳の複雑な機能が、パーセプトロンという簡単な原理で説明されることになった。
複雑な現象が単純な原理で説明できる。……こうして人類は真実に到達できたと言えるわけだ。これまでずっと「最後の謎」と思えてきた脳の知性について。
( → 言語AIの原理と能力 .1: Open ブログ )
ここでは「パーセプトロンで脳の知性については説明が付く」と述べた。ただ、ここでは、パーセプトロンが何をしているかについては示さなかった。
そこで、明かそう。パーセプトロンがなしているのは、パターン認識なのである。
前項でも述べた AlphaGo や、AlphaFold は、明らかにパターン認識の成果である。前者は碁石の配置のパターンを認識して、その組み合わせを考察する。後者は、AlphaGo の成果を生かして、アミノ酸の組み合わさった分子の構造や形状をパターンで分析する。いずれもパターン認識の成果だ。
これらはパターン認識の応用だが、その最初に、パターン認識の原理がある。そして、パターン認識の原理を与えるのが、ホップフィールドのモデルなのだ。
ヒントン
ホップフィールドのモデルを発展させたのが、ヒントンだ。
ホップフィールドのモデルでは、最終的な目標となるパターンがあった。そこに近づこうとして、雑音を除去する作用があったが、最終的な目標となるパターンは、あらかじめ与えられていた。
だが、これでは、あまりにも天下り的であって、自己形成力がない。AIが自分で知性を得るためには、最終的な目標となるパターンは、あらかじめ与えられるのではなく、自己形成する必要がある。
そのための手法を与えたのがヒントンだ。彼は、多数のサンプルを例示したあとで、最終的な目標となるパターンを構築する手法を与えた。その手法は、統計的・確率的な手法だった。それは気体分子のボルツマン分布のアイデアに似ているので、「ボルツマンマシン」と呼ばれた。
ボルツマンマシンによる成果は、それまでの「教師あり学習」から「教師なし学習」という形に転じた。それによる成果はとても大きかった。
たとえば、AlphaGo は、最初は人間の棋譜データを教師として用いていたが、その後に AlphaZero が出現した。これは白紙状態から、(囲碁における人類の多大な歴史の成果なしで)自分の試行錯誤だけで、独自の手法を編み出していった。その多大な手法には、人類の編み出した手法も含まれていたが、人類の編み出したことのない新たな手法もたくさんあった。
その後、これらの新たな手法を取り込んだプロ棋士が大活躍したことで、他のプロ棋士もあれよあれよとAIの手法を取り入れた。つまり、人間がAIに教えを乞うようになったのだ。
機械が人間の知性を越えることができたのは、ボルツマンマシンのおかげだったのだ。

※ 最近の Deep Learning では、「強化学習」という形で、大量のデータを学習させるが、それにも、このボルツマンマシンの発想が影響している。
※ 次項に続きます。