戻る

このページは以下URLのキャッシュです
http://japanese.engadget.com/2017/01/02/4/


「人工知能は人間の脅威になり得るのか?」攻殻シンポジウムで大学の教授4人が意見をぶつけ合う - Engadget 日本版

Sponsored Contents

AIの最新記事

Image credit:

「人工知能は人間の脅威になり得るのか?」攻殻シンポジウムで大学の教授4人が意見をぶつけ合う

きたる未来についての議論です

445 シェア
140
136
11
5
153

注目記事

動画:MacBook対抗馬、ASUS ZenBook 3 レビュー。薄軽ノートPCながら押し応えあるキーボードが魅力。静音うたうファンの動作音

動画:MacBook対抗馬、ASUS ZenBook 3 レビュー。薄軽ノートPCながら押し応えあるキーボードが魅力。静音うたうファンの動作音

View

人気記事

SF作品で見てきた未来の技術がリアルになりつつある現代。2029年が設定の都市とされている攻殻機動隊の世界に今どれだけ近づいているのか。2016 年11月26日に開かれた神戸ITフェスにて、「人工知能の研究と社会実装(現在・未来)」をテーマに「攻殻機動隊 REALIZE PROJECT presents 攻殻シンポジウム」が行われました。

今回は「人工知能は人間の脅威になり得るのか?」の議論です。
第一回:「シンギュラリティのポイントは攻殻機動隊的な超人間化」大学の教授4人による攻殻シンポジウム


登壇者は、神戸大学名誉教授の松田先生、九州大学名誉教授、公益財団法人九州先端科学技術研究所副所長の村上先生。電気通信大学教授 同大学人工知能先端研究センター長の栗原先生。神戸大学教授、NPOウェアラブルコンピュータ研究開発機構理事長の塚本先生。 モデレーターは、攻殻機動隊 REALIZE PROJECT事務局 統括顧問・コモンズ代表取締役の武藤博昭氏。最初のセクションは「電脳、人工知能、AI編」です。

人工知能は人間の脅威になり得るのか?



武藤:世の中では人工知能に関する危険性みたいなことを言われることがあります。例えばスティーヴン・ホーキング博士が「人工知能の発明は人類史上最大の出来事だった。だが同時に最後の出来事になってしまう可能性もある」というふうにおっしゃっているようです。また、イーロン・マスクも、AIが悪魔を呼び出すようなものであると。ビル・ゲイツも、「これは確かに不安を招く問題だねと。よくコントロールできればロボットは人間に幸せをもたらせる。しかし数年後、ロボットの知能は十分に発展すれば必ず人間の心配事になる」というふうにおっしゃっています。

松田先生、このへんについてはいかがでしょうか?



松田:人工知能脅威論というの、もちろん心配がないわけではないんだけど、専門家は実はあんまり心配してないんです。今おっしゃった、イーロン・マスクにしろ、それからホーキングにしろ、偉い人だけど専門家じゃない。だから僕ね、買いかぶりだと思うの。つまり、意識を持ったいわゆるターミネーターのスカイネットみたいなものね、あんなもの簡単にできるはずがないですよ。ああいうものがすぐにできるかのごとく発言するんだけど、それは買いかぶりだと僕は思いますね。

それに、イーロン・マスクはそんなこと言いながら、人工知能の会社に投資しとるんですよ。だから僕はああいうのを、ハリウッド的世界観と言うんです。わたくしは、ああいうのはあんまりあり得ないと。

僕が一番可能性があるのは、攻殻機動隊的世界観。どういうことかと言うたら、人間の知能を強化する。だから、機械が悪意を持って人間を操作するんじゃなくて、心配すべきは人間の悪意のほう。悪人ってね、個人の問題じゃなくて国家もそうで。国家がすごい知能を持って、戦争始めたりしたら困るじゃないですか。だから心配の方向が間違っとるとわたくしは思います。

自立性が鍵


武藤:いかがですか、栗原先生。

栗原:たぶんイーロン・マスクにしても、彼らが言ってる人工知能の定義というのがあって。おそらく共通してるのが自律性なんです。要するに勝手に動き出す自律性がどのぐらい出てくるかのレベルだと思っていて。自動運転って自律性があるわけですよね。その自律性と意識の話はまた別だとは思うんです。そのときに、脅威論の話にいきなりいくのは確かにすごい飛んでるとは思うんですけれども。だけど、ゼロではないですよね。

もはや自分たちのレベルを超えてるものをつくってしまう可能性はゼロではないので。かと言って、つくらないということは想像できない。となると、つくることを前提として、じゃあどうするんだっていうときに、例えば一つの手としては、淡路島とか種子島ぐらいのスケールで実験する。ばかでかい箱庭でなんでもありみたいな実験をするとかですね。自律性というのが最後の鍵になるというのが僕の一番言いたいところです。



塚本:わたしは、松田先生とずっとシンギュラリティサロンをやっていて、だいたい考え方一緒かなと思ってたんですけども、今の話は意外と違うところな気がして。どちらかと言うとわたしは脅威論派で、このままコンピュータ上の人工知能をほっといたらいつか、人間にとって悪意のあるか、悪いかどうかというのはちょっとよくわからないですけども、人間の知能をずっと超えたレベルの推論でもって、人類というものが宇宙にとってか、あるいは人工知能にとっていいものか悪いものかっていうことを判断するような気がしてます。

マクロに人工知能の進歩というのを見たときに、しかも、加速度的な今後の進化を考えるんだったら、わりと近いうちにぽっと意識みたいなものが発現するとわたしは想定しています。どうでしょうか、松田先生。

松田:僕は賛成しませんね。

塚本:そこは違うとこだったんですね、実は。

ハリウッド的世界観と攻殻機動隊的世界観

松田:そもそも意識って何かというのが今のところわかってない。

塚本:意識を持つかどうかっていうことは、自律的な思考ということなのかもしれませんけども、人工知能の中でこっちが想定していないようなことを勝手に考えだして、何か結論を導き出して、それに従って行動しだすとか。普通はプログラムの中に仕込んでなかったらそんなことは起こり得ないというのが従来の考え方だと思うんですけども。

人工知能のある部分をうまく自己進化していくような形というのはあり得ると思います。それが意識かどうかというのはちょっと違うかもしれないですけども、人間にとって脅威になり得るというところはそういうところからも起きる話。意識があるかないかっていうところ、別の話とするにしても、やっぱり人間にとって脅威かどうかというところは深刻な問題だと思いますね。

松田:いや、僕はそれこそがハリウッド的世界観だと思うんで。危険って話だと例えば、火。あれだってむちゃくちゃ危険なものです。でもなきゃ困ると。つまり、僕は火や人工知能それよりも、悪用のほうがずっと危険性が高いと思うのよ。

塚本:人間の側ということですよね。

松田:サイバーアタックってあれ誰がやってるんですかって、人間がやってるわけです。人工知能が勝手にやっとるわけではないですよ。それから、ロボット兵器というのも人間がつくってる。

塚本:人間の悪意とか人間自身の問題というのは、今も昔も変わらないものがあるし、技術が進歩すればするほど、深刻な問題になり得るのはもちろんあります。今は人工知能が人間にとって脅威かどうかを考えると、脅威にならないというのはわたしはなんでかなという感じがしますけどね。もちろん想定、仮説の話なんで、話はしにくいところはありますけど。

栗原:今たぶん塚本先生が言われたのは、意識というよりかは目的志向性なんです。自律性があるということは目的がある。つまり、われわれの場合だと生きたいですよね。生きたいというためにわれわれは環境適応するわけであって。人工知能の目的は我々が与えます。目的の与え方によっては、何をするかわからないってまさにその通りなんです。悪意を持った人がそういう目的を入れてしまったら、確かにロボットはそう動いてしまうでしょう。そうしたときに、今みたいに例えばウイルスが出てくればウイルスソフトが出てくるみたいないたちごっこでは済まなくなってくる。

自律性ってそれだけ敷居を超えてしまってるので。そうすると、ある程度悪さできないように仕掛けなきゃいけないとか、いろんなことが出てくると思うんです。なので、自律性のところの技術がどのぐらい熟成してくるかに応じて、たぶん塚本先生が言われたような考えなくちゃいけないことも出てきて、僕らがそれに対してどのぐらい歯止めというか仕掛けをできるかかなと。そこを失敗すると、何かしら不利益になるようなことが起きないというふうに言えるかどうかと言ったら、それは言えないかもしれない。

塚本:不規則発言続きますがいいですか。今の話は、サポートしてくださった発言だと思うんですけど、ちょっとニュアンスが違うなと思っているのは、目的に従ってこのコンピュータとか人工知能が動くっていうのは、シンプルな今の人工知能とか今のコンピュータの使い方の話。わたしが思ってるのはもうちょっと人間自身に近いというか。人間って何か目的があるかというと、非常に複雑で、何が目的かもよくわからなくて、いろんな目的をいろんな形でかなえようとして活動してます。だから人工知能も、もっと複雑で自分自身を変えていくような機能とかを、自分自身を振り返ってみるような機能とかができるのかなと。

栗原:僕の言った目的というのは、そのレベルの話です。つまり、ものを補充してくれるんじゃなくて、ロボット自身に生き残れとか、もっと根源的なものを与えたときに、ロボットがその目的を達成するためには、今はどういう方法がいいかといったものをAIが考えるというレベルの目的なので。つまり、われわれが生きるといったレベルと同じようなレベルの目的を与えるレベルの話。

塚本:でも、われわれが生きると言ったって、普段の生活でそれほど目的になってない場合も多いんで、われわれが生きるというのも大事な気がしますけども、普段の行動の中ではもっと違う多目的ないろんなものが入ってると。わたしが申し上げたいのは、知能というのはそんな単純なものじゃないということ。だからその中で、何か予期せぬ振る舞いは十分起こり得ることで。

栗原:おそらく、塚本先生がおっしゃるように、そういう高度化した人工知能が出てくると、人の制御は無理なんですよ。つまり、今現在複雑なプログラムに対してはプログラムでチェックかけるとかありますけども。おそらく、人工知能に対しては人工知能がチェックするんだと思います。まさに攻殻機動隊の世界で言うタチコマですよね。要はAIがAIを見ていく流れになっていくかなと。もはやわれわれがチェックするレベルは超えてくると思っていて。僕らの手には負えなくなるのは間違いないでしょう。

松田:僕、攻殻機動隊の世界は非常にリアリスティックだと思うんです。どういう意味かと言ったら、非常に人間くさいじゃないですか。2029年なのに、政治はどろどろしてるわけね。人々の生活は非常に幸せかって言うと必ずしもそうじゃない。ですから、僕はユートピアとディストピアという話をするんだけど、実はその真ん中あたりのこういう世界がある。この世界で人工知能が意識を持ったというのはタチコマが持ったわけだけど、僕はあれよりは、攻殻機動隊の世界でも悪漢はいるわけで、そのほうがよっぽど問題じゃないですか。今だって汚職もあるし、腐敗もあるわけだし、犯罪もあるわけで、僕は今とそんなに違わないんだろうと思いますよ。



村上:目的に合った行動をしているという人工知能と、目的を外れたものがあるんじゃないかと。今でも、学習アルゴリズムはいったいなんであんなに学習するのかがわからない、説明できないわけですし。その先に目的うんぬんじゃない人工知能が登場する恐怖と2つがあると思うんです。それは正しく動いてるんだけど、間違った人が使えば間違ったものになる。そういう恐怖も常にあるかと思う。ですから、2つの恐怖に対してどういうふうな安全装置をつくれますかということになるかなと思っています。


第一回:「シンギュラリティのポイントは攻殻機動隊的な超人間化」大学の教授4人による攻殻シンポジウム
関連キーワード: AI, 攻殻機動隊
445 シェア
140
136
11
5
153

Sponsored Contents