──
これについては(解任が報じられた)当日のうちに調べて、実状がわかった。だが、本ブログでは他の話題を書いている最中だったので、「明日また書けばいいさ」と思って先延ばしにしていた。
すると、アルトマンはマイクロソフトに入社して、しかもそれで落ち着く間もなく、あっというまに元の OpenAI CEO に復職してしまった。あれよあれよ。……あまりにも事態の推移が早い。
一方、私が書こうと思っていた話もあったのだが、それが別の形でネット上で記事に出てしまった。今さら私が(二番煎じで)書くこともないので、その記事を紹介する。
→ サム・アルトマン氏 CEOに復帰へ ChatGPT開発「OpenAI」 | NHK
要旨は下記。
ニューヨーク・タイムズが解任の内幕を掲載
アメリカの有力紙、ニューヨーク・タイムズは21日、サム・アルトマン氏がオープンAIのCEOを解任されるまでの内幕を詳細に取材した記事を掲載しました。
それによりますと、アルトマン氏は取締役のひとりで先月発表された論文の執筆に関わった、ヘレン・トナー氏と数週間前から対立していたとしています。
かなり詳しい話が書いてある。私が推測していたことが、まさしく事実だとして報道されている。ヘレン・トナーとの対立がどうであるかについては、上記記事を参照。
──
では、私が推測したこととは何か? その根拠は下記だ。
《 突然のサム・アルトマン解任劇を生んだOpenAIの「奇妙な組織構造」 》
OpenAIで起きたサム・アルトマンの解任劇は、その奇妙な組織構造ゆえに起きた。利益の最大化より公共の利益を優先するという使命の達成を重視した統治の仕組みだったが、取締役たちが“アクティビスト”になるような事態は想定されていなかったという。
OpenAIの組織構造は、非営利団体としてのOpenAIの傘下に子会社として事業部門(営利部門)が存在する仕組みになっている。この非営利団体が全活動を統括し、営利部門は非営利団体の指示に従う。OpenAIの公式サイトによると、これはOpenAIのミッションである「安全で全人類に利益をもたらす汎用人工知能(AGI)を構築するための基盤とする目的だという。
( → WIRED.jp )
普通の会社は、株主が権限を持ち、株主が経営者を選任したり解任したりする。株主が会社として持株会社であることもある。
ところが OpenAI は違う。株主でなく非営利団体が権限を持ち、その傘下に事業部門がある。このことは、たぶん、次の狙いだろう。
「利益一辺倒の株主に奉仕するのでなく、社会全体に貢献することを目的として、その崇高な理想のために、事業部門が奉仕する」
これは一種の理想主義だ。高邁な理想を信じる人々によって設立されたことになる。
──
しかし、こんなことでは、非営利部門のトップに立つ人が間違えば、全体が間違った方向に進んでしまうことになる。今回はたぶんそういうことだったのだろう。つまり、非営利部門のトップに立つ人が暴走したのだろう。……そう思って、その人物を確認したところ、ヘレン・トナーという人物がましくそうだと判明した。
→ OpenAIサム・アルトマンの「電撃解任」を決断した4人の取締役 | Forbes JAPAN
この人は理系の素養も少しはあるようだが、基本的には文系の人である。AI のことについて技術的に詳しいわけではなく、AI の及ぼす危険性について考察することが仕事であるらしい。
彼女の役割はAIの安全について考えることとされ、ブロックマンは当時の声明で「私は、AIの長期的なリスクと影響に関するヘレンの深い洞察を非常に高く評価している」と述べていた。
まあ、研究の暴走を防ぐためのブレーキをかけるような役割を果たすことが仕事なのだろう。
ところが、暴走を防ぐためにある人物が、今回は逆に、自分自身が暴走して、トップを解任するという大混乱を引き起こしたのだ。「暴走を止めるべき人物が暴走した」……そこに、今回の問題の本質がある。
──
では、どうしてそうなったのか? その事情は、わからなかったが、冒頭で示された記事(NHK / NYタイムズ)の記事から判明した。
先に述べたように、OpenAI は、非営利部門の取締役が権限を持つ。その非営利部門の取締役というのが問題だった。これが非常に優れた人物であればよかったのだが、そうならなかった。逆に、AI を信じるよりも AI を危険視する「アンチ AI 」とでも言うべき人物(いわば獅子身中の虫)が、取締役になってしまった。
これではまずい。虫によって組織が蝕まれてしまう。組織の全体が崩されてしまう。……そう思ったアルトマンは、虫を排除しようとした。すると、排除されそうになった虫が危機感を抱いた。虫は、仲間の取締役を煽動して、「むしろアルトマンを排除してしまえ」と工作した。根回しですね。その根回しがこっそり進行していて、気づいたときには、「一夜にしてアルトマンの解任」が実現してしまったのだ。かくて工作は大成功。
これが舞台裏のてんまつだ。
そのあとは、周知の通り。従業員が反発して、そろって辞表を手にしてアルトマンの復帰を求めた。かくて、アルトマンはすぐさま復帰した。逆に、非営利部門の取締役は解任されそうだ。
ただし、詳細は、まだ決まっていないようだ。新たな取締役が選任されるそうだが、ヘレン・トナーがどうなるかは今はまだ決まっていないようだ。また、解任劇の詳細についても、内輪の情報は公表されていない。NYタイムズの記事も、内部事情をこっそり報道しただけであって、公式に発表されたわけではない。(ま、内輪の恥をいちいち公開することもなさそうだが。)
──
で、結局、何がどうなったか? すべてをひとことで言えば、こうだ。
「大山鳴動してネズミ一匹」
「元の木阿弥」
たいしたことは起こらなかったのである。
【 関連サイト 】
ヘレン・トナーの情報
→ Helen Toner - Center for Security and Emerging Technology
Helen Toner is Director of Strategy and Foundational Research Grants at Georgetown’s Center for Security and Emerging Technology (CSET). She also serves in an uncompensated capacity on the non-profit board of directors for OpenAI. She previously worked as a Senior Research Analyst at Open Philanthropy, where she advised policymakers and grantmakers on AI policy and strategy. Between working at Open Philanthropy and joining CSET, Helen lived in Beijing, studying the Chinese AI ecosystem as a Research Affiliate of Oxford University’s Center for the Governance of AI. Helen has written for Foreign Affairs and other outlets on the national security implications of AI and machine learning for China and the United States, as well as testifying before the U.S.-China Economic and Security Review Commission. Helen holds an MA in Security Studies from Georgetown, as well as a BSc in Chemical Engineering and a Diploma in Languages from the University of Melbourne.
ヘレン・トナー は 、ジョージタウンのセキュリティおよび新興技術センター (CSET) の戦略および基礎研究助成金のディレクターです。 彼女はまた、OpenAI の非営利取締役会の無報酬の立場でも務めています。 彼女は以前、Open Philanthropy の上級研究アナリストとして働いており、AI の政策と戦略について政策立案者や助成金作成者にアドバイスを行っていました。 Open Philanthropy での勤務と CSET への参加の間、ヘレンは北京に住み、オックスフォード大学 AI ガバナンスセンターの研究員として中国の AI エコシステムを研究していました。 ヘレンは、中国と米国に対する AI と機械学習の国家安全保障への影響について外務省やその他の報道機関に寄稿し、また米中経済安全保障検討委員会で証言を行っています。 ヘレンは、ジョージタウン大学で安全保障研究の修士号を取得し、メルボルン大学で化学工学の学士号と言語のディプロマを取得しています。
