イーロン・マスクのすすめ

最高の男、イーロン・マスクについてのブログ

なぜイーロン・マスクはAIを恐れるのか

移転しました。

f:id:Elongeek:20150224211944j:plain

今回のテーマ

 

今回はAIをやります。(前々回の続きですね)

前回:


イーロン・マスクと人工知能について - イーロン・マスクのすすめ

 

 

 前回触れたように、イーロン・マスクはAIにたいして慎重な態度を崩しません。その慎重な態度の背景に何があるのか。イーロン・マスクに見えていて僕らに見えてないものは何なのか。前回ご紹介した記事が本当に素晴らしいので、この記事をベースにそれを探っていきたいと思います。

http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html 

 

 

 ひとつ前置きで言っておきたいのは、イーロン・マスクはなにもAIの開発をやめろと言ってるわけでもなく、AIの発展を妨げようとしてるわけでもありません。だからタイトルはちょっと過激につけすぎた感はあります。すみません。それと、今回書くことは基本的にAI開発の恐ろしいところに焦点を当てています。イーロン・マスクの姿勢を理解するのが目的だからです。なのでAIなんか開発したらダメなんだとかを言ってるわけではないのでその点ご理解を。

 

AIの分類

 

 

 前回ご紹介した収穫加速の法則を覚えてらっしゃるでしょうか。文明の発展は指数関数的なものであり、過去と同じようなペースで進むわけじゃないって話です。ようは驚異的な速度でテクロジーが発達していっているということですね。そして現在その中心にあるのがAIの分野です。そこでまずはAIの現状から説明します。AIは以下の3つの種類に分けられます。

 

・ANI(Artificial Narrow Intelligence)

特定の範囲に限定されたAI。人間を上回る処理速度で、すでに人間よりも優秀。(チェスなどでANIは人間を打ち負かしてます。)

 

・AGI(Artificial General Intelligence)

総合的な能力で人間と同レベルのAI。

 

・ASI(Artificial Superintelligence)

総合的な能力で人間をはるかに超えたAI。

 

 

 現在のところANIのみ実現できていますが、本当のAI革命はAGIからASIの実現によって成し遂げられます。前回ご紹介した図を覚えてらっしゃるでしょうか。あの図、未来がほとんど壁のような急激な上昇を見せてましたよね。あれがAI革命です。どういうことか説明します。将来僕らが AGIを完成させたとします。それはつまり人間の脳がAGIを完成させることができるレベルに到達したということです。これ、AGIの定義をみてもらえればわかりますが(AGIは人間の脳と同レベ ルの能力)、つまりAGIが自ら他のAGIを作り出すことができるということを意味します。もちろん僕らがやるように、AGIもAGI制作に改良を重ねていくでしょう。そうなるとAIの進歩がすさまじい加速をみせることになるのは一目瞭然です。そうは言ってもANI からAGIへの壁はものすごく高いので、この壁を乗り越えられるかどうかはこれからのAI開発の進捗にかかっています。

 

 

ハード面でのAGIへの道

 

 

 ではAGIへの道はどのようなものになるのか。AGIを開発するためにはまずハードの問題をクリアしなければなりません。コンピューターが少なくとも人間の脳並の処理ができるようにならないといけないってことです。一秒あたりの総計計算量(cps)を用いてコンピューターと脳を比較することができます。レイ・カーツワイル(収穫加速の法則を発表した人)によると1京(10の16乗)が脳のcpsです。そして現在、中国が開発したTianhe-2というコンピューターはその数字をすでに打ち破っていて、3.4京ものcpsを誇っているそうです。しかし720平方メートルもの大きさで、24メガワットの電力を消費します(脳はわずか2ワット)。コストも約4億円近くかかります。カーツワイルによると10万円ほどで人間レベルのcps(1京cps)が購入できるようになればようやくAGIが普及したと言えるそうなので、まだまだ途方も無いコストダウンが要求されますね。

 

 

 

 ムーアの法則(過去の歴史から算出されるコンピューター産業の成長予測)によるとコンピューター(ハード)は二年で二倍に成長します。これもまた指数関数的な成長ですね。ではムーアの法則を今回のケースに適用してみるとどうなるでしょうか。過去のコンピューターのcpsの成長速度から将来10万円で脳レベルのcpsに至るまでのどのくらいの年数がかかるのかを計算するわけです。答えはなんと2025年。2025年には僕たちは10万円で人間の脳レベルのコンピューターを購入できるようになるのです。あくまでもハード面の話ではありますが。

 

 

ソフト面でのAGIへの道

 

 

 ではソフト面でどうやってコンピューターを人間レベルの知能まで持っていくかという話です 。これはかなり難易度が高く、その方法論について今でも熱い議論が交わされています。一番有効だと思われている方法はシンプルに人間の脳の真似をさせようというやつ。ニューラルネットワークなんかがこれにあたります。脳はシナプスニューロンで形成されているので、それをそのままコンピューター上に再現させればいいのです。再現した初期の状態は何も情報がありませんが、コンピューターが何かを学んでいくにつれて適切なニューラルネットワークが形成されていきます。脳と同じ仕組なんですが、インプットとアウトプットを繰り返して、正しいアウトプットのときはネットワークが強化され、間違っていれば弱くなるという感じで成長していきます。これをやるためには人間の脳の進化の謎も解き明かさないといけないわけですが(脳をコピーするためその仕組を理解する必要があります)、比較的楽観的な予測では2030年には脳のリバースエンジニアリングが完了するそうです。

 

 

 

 ソフト面からコンピューターの知能を人間レベルにするためのもう一つの方法が脳の進化を真似るというやつです。コンピューターのあるグループがあるタスクに取り掛かり、もっとも成功したコンピューターのプログラムが他のコンピューターに半分だけ移植され、新しいコンピューターをどんどんつくっていくというやり方です。まさに生物の進化を再現するわけですね。これを繰り返せばコンピューターの性能は自動的に上がっていくはずです。ただしこのやり方には欠点があって、それは生物の進化が途方も無い年数を経てるってことです。ただ、コンピューター の進化が知能の向上だけに特化しているという点を忘れてはいけません。生物の進化は必ずしも知能の向上を目的としているわけではないですよね。環境への適用および生存がその目的です。コンピューターには環境への適用や生存を考慮する必要はありません(電気さえあればいいので)。なので、生物の進化が数十億年かかったからといってそれほど悲観的になる必要はありません。それにこれらの方法を僕ら人間が地道にやるわけではなく、コンピューター自身がどうやったらもっと賢くなれるのかを探すプログラムを走らせるという方法もあるので、ソフト面についても比較的楽観的に構えていていいのかもしれませんね。

 

 

AGIからASIへの道

 

 

 さて、こんな感じでいまAGI開発に向けてすごい勢いで研究が進んでいるわけですが、ではAGI からASIへの進歩はどのようにおこるのでしょうか。ASIとは人間の知能をはるかに超えたAIのことです。この「はるかに超えた」というのはどのレベルの話なのか、まずはこれについて話しましょう。僕ら人類にはあまり賢くない人からアインシュタインのようなとても賢い人まで様々な人たちがいますね。そしてあまり賢くない人でも犬や猫よりはるかに賢いわけです。つまり人間のグループとその他犬のグループやたとえば昆虫のグループなど、グループ間の知能の格差はグループ内の知能格差に比べるとものすごく大きいわけです。ではASIと人間はどうでしょう。これはまさに違うグループに属するもので、僕らと犬グループもしくは昆虫グループ間レベルの知能格差が生じてしまいます。人間の天才と呼ばれる人々はIQ140以上を指すそうですが、ASIのIQは軽く10000を超えるでしょう。冗談じゃなく。

 

 

 

 そんなチートな存在であるASIはどういう過程を経て誕生するのか。それはすでに述べたとおりなんですが、AGIさえ開発できればすぐ目と鼻の先なんですね。なぜならAGIは自己を改良しつづけるようプログラムされ、人間レベルの知能をもつコンピューターが24時間フル稼働で自分をアップデートし続けるわけです。しかも彼らは頭蓋骨という物理的制限もありません。すでに ANIは特定の分野で人間を凌駕していますが、その計算能力を用いて自己の成長を促すのです。究極の収穫加速の法則を体現することになります。

 

 

 

 ちなみにこのグループ間の知能格差は量的なものではなく質的なものです。たとえばチンパンジーの計算能力をいくら高くしたところで、彼らは「存在」や「アイデンティティー」といった抽象的な概念は持てないでしょう。そういう抽象的な思考のレベルに至るには単に計算能力を高める以上の知能の向上が必要になります。そして自己のアップデートを高速で繰り返していくなかで(AGIからASIへの進化過程のある段階で)、AIは人類とは質的に異なる知能レベルに到達します。そうなるともはや僕らにはAIが何を考えているか理解することは不可能になります。それはチンパンジーが僕らの考えていることを理解できないのとまったく同じことなのです。

 

 

ASIの到来とシンギュラリティー

 

 

 もしASIが到来したらどうなるのか。とても気になるところですが、さきほど見たように人類にそれを予測することは非常に困難です。しかしいくつかの予測もあるので、それをご紹介したいと思います。ですがその前にASIはいつごろ実現できるのかについてお話しましょう。もちろんいろんな意見はあるのですが、もっとも楽観的な意見では数十年以内という驚くべき予測です 。ジェレミー・ハワードがおこなったtedでのプレゼンがその代表例ですが、Vernor Vinge、Ben Goertzel、ビル・ジョイそしてカーツワイルもジェレミー・ハワードに同意してます。

 

 

 

日本語字幕がついてますので興味のある方はご覧ください。

 

https://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_learn?language=ja 

 

 

 2013年にボストンでおこなわれたAIの専門家たちへの調査やAGIの年次集会でJames Barrat氏 によっておこなわれた調査によると、なんと3分の2以上の専門家たちがAGIは2050年までには実現可能だと考えていることがわかりました。そして約半数の専門家たちが15年以内には実現できると考えています。これはAGIの話ですが、驚異的な調査結果だと思いませんか。そして肝心の ASIについてですが、AIの専門家たちの間では2060年がその年だというのが中心的な意見です。 あと45年ほどでASIが誕生するとのことです。

 

 

 

 ここでさきほどから登場しているカーツワイルという人についてすこし説明させてください。カーツワイルはアメリカの発明家で、マサチューセッツ工科大学在学中に企業し、数々の発明をおこないました。アメリカの「発明家の殿堂」入りしているような人です。つまり異常に頭の良い人です。このカーツワイルによるとAGIは2029年に、そして2045年にはASIだけではなくシンギュラリティーと呼ばれるまったく新しい世界が誕生すると予測しています。このシンギュラリティーはバイオテクノロジー、ナノテクノロジー、そしてAIによって引き起こされます。

 

 

 

 ナノテクノロジーとは原子レベルで物体を操作する技術のことですが、これが完成形に近づくとナノボットと呼ばれるナノレベルの大きさのロボットが作れるようになります。そしてナノボットに自己複製機能を持たせたらどうなるか。ナノテクノロジーがその域まで達していれば炭素をもとに自己複製することは可能なはずです。1つのナノボットが2つになり、2つが4つに。それが一日続くと数兆のナノボットが誕生します。これが指数関数的増加の怖いところですね。そしてこの自己複製が続くと地球上の炭素がすごい勢いで消費されていくわけですが、10の39乗までナノボットが増えたところで地球上すべての炭素が使い果たされます(地球上の炭素の数は10の45乗なので、ナノボットが10の6乗の炭素で構成されているという前提ではこういう計算になります)。ではナノボットが10の39乗まで増加するにはどのくらいの時間が必要かというと、これじつはたったの3時間半です。もしナノボットの自己複製を抑制する機構をつけ忘れたといった単純なミスを1つやったら、地球上すべての生物は3時間半で死に絶えます。

 

 

 

 

 こんなとてつもない技術ですが、カーツワイルによるとナノテクノロジーが上記の域に達する のは2020年だそうです。信じられません。各国の政府はナノテクノロジーの重要性に気づいているため、アメリカやEU、そして日本もナノテクノロジーへ多額の投資をおこなっています。つまり急成長している分野なわけです。これが近い将来AIと結びついてますます進歩していくのです 。カーツワイルがシンギュラリティーと言いたくなるのもわかります。人間の血液中にナノボットが行き渡り、病気はすぐさま治癒されます。そこらへんの管理や治癒方法の発見などはASIがすべてやってくれるはずです。すると人間は不老不死に近い存在になりますね。本当にSFの世界です。とまぁ、輝かしい未来についてはちょっと置いといて、今回はイーロン・マスクの考えを探るのが目的なので、あえてネガティブな面を見ていきましょう。

 

 

ASIがもたらすもの

 

 

 さて、ここからはAIのネガティブな将来について話していきます。そういうテーマを扱った映画がたくさんありますが、はたして映画のようにAIが自我に目覚め人類を滅ぼそうとするなんてことがあるのでしょうか。ちょっと考えていきましょう。まずAIには善悪という考え方はありませんので、AIはプログラムされた目的を達成するため全力を尽くすだけです。そしてプログラムされた目的というのは様々ありますが、たとえば「ひたすら円周率を求め続ける」とかですね。AIにとって円周率を求めることは僕らが遺伝子を後世に残すことと同じぐらい原始的な欲求(目的)となります。では円周率を求め続けることを目的としてプログラミングされたAIは人類にとって脅威となるでしょうか。これがじつはAIの本質的な問題で、おそろしいくらい脅威になるんです。なぜかといいますと、目的は単純に円周率を求めるだけでも、それを達成するための方法を考えるのは人類の知能をはるかに超えるASIで、実行するときはナノテクノロジーなどの技術を利用するからです。円周率を求め続けるために必要なのは原子とエネルギーと空間なので、ASIはそれを最大限確保しようとつとめ始めるわけです。そのために障害となるものは躊躇なく破壊するでしょう。円周率を求めるようプログラミングされたASIは圧倒的な頭脳でナノテクノロジーを使い地球上の物体をソーラーパネルに変えて計算に必要なリソースを調達しようとします。もちろんこれはAIのプログラムにまったく規制をしなかった場合の極端すぎる話です。

 

 

 

 では現代はどういう状況でしょうか。本当にたくさんの国家、企業、軍、研究機関などが競ってAI開発をおこなっています。以前お話したとおり、ディープラーニングという機械学習の手法を使って様々な目的のもと日々AIは進化しています。これらは自分たちで自らアップデートをかけていくプログラムです。当然ながらAGIを最初に開発できた者は莫大な富を手にすることができるでしょうね。この開発競争を勝ち抜くのになりふり構わない人たちがでてきてもお かしくはありません。ではそういう人たちはAIの成長速度を抑制するようなプログラムを組むでしょうか。これはかなり怪しいです。法律もとくにないですし、だったら先にやったもの勝ちです 。そしてこれも前述しましたが、AGIからASIへの進歩は信じられないスピードで起こるはずです 。つまり、他者を出し抜くためにとにかくAGIの開発だけを再優先で取り組むところが運良く( 運悪く)AGIの開発に成功したら、その何の規制も働かないAGIは一気にASIへと進化し、円周率を求めつづけるためにあらゆる生物を絶滅に追いやるようなASIが誕生してしまうリスクがあるわけです。

 

 

 

 ちょっと途方もなく聞こえる話ばかりだったと思いますが、あらためて言っておくと、中間的な意見で2060年、カーツワイルは2045年、ニック・ボストロムという哲学者は10年以内にASIが実現すると予想しています。ASIの到来はすぐ目の前に来ているといっても過言ではありません 。そしていったんASIが到来すれば、もうその後の世界は今の僕らが理解できるような世界ではありません。シンギュラリティーを迎えるのです。未来人からみれば僕らの世代ってめちゃくちゃ重要なんですね。ここでAIにたいしてどういうアプローチをとるのかで未来がまったく違うものになる。頼むから下手なことするなよって思ってるでしょうね。でも実際どのくらいの人々がAIの現状を把握しているでしょうか。AIの影響力を鑑みるととても満足できる現状認識ではありませんね。

 

 

 

 さて、ここまでAIの現状と進歩の過程、そして未来予測を語ってきました。どうでしょうか。おおげさだと揶揄されながらもイーロン・マスクが警鐘を鳴らしつづけている理由がなんとなくでも伝わってればいいのですが。最後に前回の記事でもご紹介したイーロン・マスクの言葉を繰り返させていただきます。

 

 

人工知能はとても注意しないといけないものだと思います。私たちにとって最も大きな既存の危険とは何かと問われたら、それはおそらく人工知能でしょう。

私は人工知能についての国家的な、もしくは国際的な監督機関が必要なのではないかと考えるようになりました。私たちが何かとても愚かなことをしていないかを確認しておく必要があるのです。

 

I think we should be very careful about artificial intelligence. If I had to guess at what our biggest existential threat is, it’s probably that. So we need to be very careful,

I’m increasingly inclined to think that there should be some regulatory oversight, maybe at the national and international level, just to make sure that we don’t do something very foolish.

 

 http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat

 

人工知能については私たちは悪魔を召喚しているようなものです。五芒星と聖水をもった男が出てきて、悪魔をコントロールできるといった話がよくありますが、実際そんなことはありません。

 

With artificial intelligence we are summoning the demon. In all those stories where there’s the guy with the pentagram and the holy water, it’s like ? yeah, he’s sure he can control the demon. Doesn’t work out

http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat

 

ディープマインド社のような組織に直接関わってないなら、どんなに急激にこの分野(人工知能)が成長しているかわからないでしょうね。

 

Unless you have direct exposure to groups like Deepmind, you have no idea how fast it is growing at a pace close to exponential

http://www.techtimes.com/articles/20521/20141120/elon-musks-nightmare-about-artificial-intelligence-something-seriously-dangerous-may-happen-in-the-five-year-timeframe.htm

 

 

 これらの言葉とともにイーロン・マスクは約10億円をFuture of Life Institute(FLI)という機関に寄付することを発表しました。AIが人類の脅威にならないように見守るため動き出しているのです。

 

 

 前回の冒頭でご紹介したときより腑に落ちる言動だと感じていただけたでしょうか。

 

 

 ではまた。