中野智文のブログ

データ・マエショリストのメモ

シンギュラリティは永久機関のようなもの

背景

社員旅行の夜、シンギュラリティについて質問された。 それまであまりよく考えたことがなかったけど、このときに自分の中でかなり整理された。

無限に賢くなる?

シンギュラリティの主張は、

  • AIがもっと賢いAIを作る。
  • これを繰り返す。
  • 最終的に圧倒的に人より賢いAIが作られる。

確かにこれを聞けばすごくAIは賢くなる気がする。

賢さとは何か?

賢さとは何なのか。考えてみる。

  • 計算スピード。すでにコンピュータのほうが早い。でも人間より賢いわけではない。
  • 記憶力。コンピュータの方が多く記憶できるし、早く記憶できる。でも人間より賢いわけではない。

賢さの要素となるものは既に人間より上回っているにも関わらず、賢いとはいえないわけである。

学習の性能とその上限

今シンギュラリティが話題となっている背景に、深層学習のような機械学習のブレイクスルーがあるので、(機械)学習の枠組みで賢さを考える。 (機械)学習の評価尺度に正解率というものがある。特に重要なのが、汎化性能とよばれる未知の問題に対する正解率である。

この未知の問題に対する正解率には実は上限がある。どんなに優れた機械学習手法においてもこの上限を超えることはできない。

例えば、

  • サイコロの目の数の予測

であるが、どのように優れた機械学習の手法を用いても正解率は6分の1を超えることはできない。

無限に賢くなる手法というのが提案されたとしても(事実Boostingは「訓練事例に対しては」無限に正解率が上がる)、アキレスと亀のように上限を超えることはできない。

賢い人が教えたらもっと賢い人になるか?

機械学習は新しいアルゴリズムを生成するものではない。だから、機械学習によって直にもっと賢い機械学習ができるわけではない。 ただし、機械学習のパラメータを効率よくチューニングするような話(メタ学習とよばれる)もないわけではない。 また機械学習アルゴリズムを一つの推論とみなすとき、強化学習のような方法で効率よく学習が出来るようになるかもしれない。 ところが、強化学習やメタ学習による機械学習手法が代表的な一手法として確立してない現状をみると、 この強化学習やメタ学習にブレイクスルーがなければ、将来的にもその可能性は低いと考えられる。

そもそも賢い人が教えたらもっと賢い人になるという前提自体が根拠が不明である。賢い人自身がもっと賢くなることはあっても。

計算複雑性理論は越えられない

また例えそうだったとしても、計算複雑性理論の上限を超えることは出来ないだろう。もちろん量子コンピュータなどの新しい可能性もあるが、賢さのみでハードウェアを構築することは出来ないし、 人間もそうだが、どんなに賢くても無限のリソースが手に入るわけでもない。物理的な制約まで賢さが克服する根拠はない。

結局、シンギュラリティは計算機科学における永久機関

結局、シンギュラリティに到達するには様々な制約があり、それが克服される技術的・科学的な根拠はまだない。 よって、個人的には永久機関のようなものと考えている。