カタパルトスープレックス

興味がない人は無理して読まなくていいんだぜ。

書評|アシモフ的なAI三原則|"Human Compatible" by Stuart Russell

f:id:kazuya_nakamura:20191109123223p:plain

人工知能(AI)に関して大きく分けて二つの派閥があります。人間のに脳を超えるとき、人間にとって脅威になると主張する派閥と、人間にとって脅威にならないと主張する派閥です。スチュワート・ラッセルは人工知能は人間にとって脅威になると主張する派閥の一人です。スチュワート・ラッセルはカリフォルニア大学バークレー校の人工知能システム研究所(CIS)の所長で、英語では多くの人工知能の著書を執筆しています。

一番新しい著書の"Human Compatible"でスチュワート・ラッセルは人工知能が人類の脅威になる可能性があるという立場から、いかに危害をなくすことができるのか(人間との共存=Human Compatible)を考察しています。

Human Compatible: Artificial Intelligence and the Problem of Control (English Edition)

Human Compatible: Artificial Intelligence and the Problem of Control (English Edition)

スチュワート・ラッセルの主張を簡単にようやくすれば「AIの目的ではなく、人間の目的を達成するようにデザインすべき」です。「じゃあ、人間の目的って何?』ってなりますよね。問題は人間の目的は数億人の個人の中にあり、機械にはないこと。さらに、人間は自分自身の目的も明確ではないことです。

まず、この本では「知能とは何か?」を考察しつつ、AIの歴史をその出発点であるダートマス会議まで遡り振り返ります。これも簡単に要約すると、「知能自体がまだよくわかっていない」ですし、「人間が理解できる範囲内での知能しか再現できていない」です。

単細胞生物の知能は非常に単純で、1) 特定の状況において、2) 何を望み、3) 何を行動するかの三点に要約できます。しかし、単細胞生物は学習ができません。学習にはニューロンとシナプスの神経ネットワークが必要となります。現在のAIは学習できるまで「知能」レベルになってきました。でも、脳の認知レベルはあまりよくわかっていないし、意識レベルは全くわかっていない。

 

計算スピードだけであれば、コンピューターは人間の脳をすでに凌いでいます。では、なんで現時点で人間と同等のAIが存在しないのか。それは、ハードウェアの問題ではなく、ソフトウェアの問題だとスチュワート・ラッセルは説きます。コンピューターが人間レベルの「知能」を獲得するには複数のブレイクスルーが必要なのだそうです。その代表が、1) 言葉とコモンセンス、2) 世代を超えた学習、3) メンタル行動の管理です。

例えばなのですが、AIの自然言語処理は本を読んで理解するに至っていません。また、複雑な予測(例としてあげているのが二つのブラックホールの衝突予測)はできません。前提とする知識やデータが必要で、膨大なデータから必要な知識を人間のように効率的に取捨選択するには特徴エンジニアリングが必要ですが、まだまだ人間レベルには程遠い状況です。また、新しいコンセプトを生み出すには帰納プログラミングが期待できますが、これも相対性理論のような科学的コンセプトを生み出すには至っていません。

つまり、現時点でAIは個別の人間の能力を凌駕する可能性はあるかもしれませんが、集合体としてのn人間をまだまだ凌駕できません。じゃあ、まだまだ先の話だし、それほど脅威を感じなくてもいいのね?とはいきません。AIが人間を凌駕するのは5年後かもしれないし、500年後かもしれない。そこでスチュワート・ラッセルが提唱するのがAI三原則です。これはTED Talkを観てもらうのが早いかもしれません。

この本はどんな人にオススメか

AIが現時点で何ができて、何ができないの?を知りたい人にはオススメです。どうしてできないのかをかなり詳しく専門家じゃなくてもわかるように説明してくれます。AIがすでにいろいろ誤用されているから、気をつけようね!という事例も紹介してくれています。「工業化が人間から職を奪わなかったように、AIも人間から職を奪わない」がどうして楽観的すぎて、資本家にとって都合のいい見方なのかも解説してくれています。まあ、生産性が上がるは利益が上がると同義語で、利益は労働者ではなく資本家に分配されますからね。これを「グレート・デカップリング」と言います。

ただ、ちょっと冗長的だと感じる部分もありました。AIにある程度興味がある人であれば最初のAIの歴史とかはかなり退屈かもしれません。あと、AIの脅威も映画の中の話っぽさが拭いきれず(実際に映画の例が多い)、あまり脅威に感じませんでした。でも、まあ、すでにAIはたくさん誤用されているわけだから、研究者はちゃんと注意しないといけないんでしょうね。