戻る

このページは以下URLのキャッシュです
http://rss.rssad.jp/rss/artclk/T7he30zk4qYy/c3f91372f477b6096d44d17b3c73e8b3?ul=NV657RuvzYY2M8BCVJk1t0Ut2.nvWL80OGmNqE.WOIZg320dYm3tFsisBCOQly4aPJx6_s5B3hXUOVc1zw398dkiRRjMS7bj4zprG1KDtb0EYGnkO


ロボットが人を殺す? 「殺す」という言葉の不確かさと危うさ : ギズモード・ジャパン

ロボットが人を殺す? 「殺す」という言葉の不確かさと危うさ

2015.07.18 22:00
  • このエントリーをはてなブックマークに追加

150717robot.jpg


本当に殺せないの?

ロボットが人を殺すという言い方の不確かさ、その危険性を説いているのは、イギリスのサセックス大学認知科学センターのディレクターであるRon Chrisley氏。氏が説くロボットと殺人と責任の関係、大変興味深いです。

ロボットが人を殺すというと、人工知能を持ったターミネーターのようなヤツが反逆して人間の地位を奪うという画ばかりがうかびますが、今はまだその段階じゃないのです。


***


人間の死にロボットが関わっている、それは何も最近の真新しい出来事ではない。工場にはさまざまなタスクのロボットがいる。とすれば、工場で起きる工業事故は、人の死にロボットが関わるということ。最近では、ドイツはバウナタルのフォルクスワーゲンの工場で、ロボットにひっかかり金属プレートに挟まれ死亡した男性の事故がニュースになった。

記録されている最古の工業ロボットが関連した死亡事故は34年前のこと。皮肉なことに、このドイツでの事故と非常に似たケースだった。34年前も今も、同じようなロボットによる死亡事故が起きているのだ。安全基準は年々厳しくなっているとはいえ、これからもこのような事故は起きてしまうのだろう。むしろ、ロボット自体の数が増えていることから、事故が増える可能性も…。

何が言いたいのかと言うと、「ロボットが人を殺す」ということの定義をはっきりさせたいということだ。前述のドイツの事故も多くのメディアが「ロボットが作業員を殺した」と報道した。センセーショナルだが、これは誤解を招く表現だろう。この事故は「ロボットのアクシデントで作業員死亡」と言うべきなのだ。

後者はショッキングさで目を惹くところはないが、正確だ。ロボットによる殺人は、SF世界や未来で起きるかもと頭をよぎるけれど、事実、今現在に限れば、ロボットには殺意や感情、殺人の目的がないのだから。また、正直、ロボットが殺意という感情を持つ日が来るのは、そう近くはないだろう。

殺す、という言葉は今のロボットには相応しくない。それは、地震や台風などの自然災害に対して「台風が人を殺す」というのにある違和感と同じだろう。(もちろん、感情を煽るためにわざと使う場合はあるのでしょうが。)つまり、ロボットは、人が人を、動物が動物を殺すのと同じ並びでの「殺す」で人を殺すことはないのだ。


「殺す」という言葉の定義を間違うリスク


「ロボット」が「殺す」という定義についてとやかく言うのは、別に言語学者を気取っているわけではない。ハイリスクハイリターンだ、と言っているのだ。センセーショナルだが、その分リスクがあるぞ、と。不用意にロボットへの脅威を煽ることは、人工知能の分野に冬を招きかねない。つまり、人工知能に関する研究が資金を得られなくなる時代になってしまうのでは、と。これは、工業面だけでなく、社会がロボットから受けることができる恩恵をただ遅らせ否定させることになるだけだ。

ロボットの利点に対して否定的な人も、この「殺す」という表現に対して慎重かつ正確になるべきだろう。ロボットが責任を負うことはできない。ロボットの行動は人間がプログラムしたもの、ということは、人間に責任があるのだ。しかしながら、ロボットがより一般的になれば、その責任がロボットにあるような気がしてくるもの。ロボットが、まるで自主性や意図を持ち、責任も負えるように見えてきてしまうだろう。


モラルのあるロボット or モラルに沿って作られたロボット


ロボットに関する報道に必要なのは、言葉の正確さだけではない。政策決定機関、営業するもの、そして研究開発に従事し、今日、そして明日のロボットをデザインするものは、クリアにしておかなければならないことがある。それは「モラルあるロボットを作るための最善策は何か?」と問うのではなく、「モラルに沿ってロボット作るための最善策は何か?」と問うべきだということ。

言葉の使い方は、結果としてデザインに大きな変化をもたらす。例えば、ロボットにモラルに乗っ取った法律、ルールを課し、それを守らせようとするのならば、ロボットに人間に等しいレベルの常識という概念を与えなければならない。それは非常に難しいことだ。ならば、その代わりに我々ができるのは、ロボット以外の技術発展においても取り組まれるのと同じく、マシンのためにデザイナー自身がモラルをきちんと持つことだ。

冒頭のフォルクスワーゲンの事故の話に戻るが、この事故で担当者は「ロボットの問題点よりも、人為的ミスが原因だ」と繰り返している。報道でも、ロボットの欠点や責任よりも、ヒューマンエラーについて書かれているものがあった。しかし、これは裏を返せば、事故の原因がロボットにあるという考えが起きる場合もあるということではないだろうか。

もし、ロボットに問題があるのならば(問題とは、例えば素材の欠点や、サーキットボードの不具合や、プログラミングの不足や、デザインの足りなさなど)、それは、やはり人間側の問題であり、人為的ミスなのだ。もちろん、人の不注意やミスが原因ではなく起きる工業事故もある。しかし、人間であるロボット制作者の責任が、ロボットの影に隠れてしまうべきではない。少なくとも、今はまだロボットに責任を課すことはできないのだから。


***


おっとー…、ガツンときました。真っ向からこう言われると、わかってはいたけれど、その確かな意識がなかったことに気づきました。Chrisley氏の言う通り、ロボットは人を殺せない。いや、「まだ」殺せない。SF映画のように、ロボットが人を殺すのは、彼らが意志と殺意を持った時のみです。

言葉1つ、されど言葉1つ。「殺す」という言い方だけで、ロボットの見方、人間への責任が大きく変わってしまいます。言葉は恐ろしいものだ。そこでふと思うわけです。では、人工知能は、この恐ろしい言葉をどこまで自由に操れるようになるのでしょう、と。


※Chrisley氏の本記事の原文は、元々The Conversationにて公開されたものです。

Top image via shutterstock

Ron Chrisley - Gizmodo US[原文
(そうこ)

  • このエントリーをはてなブックマークに追加
  • PtimoシリーズNo.0 プラロビ
  • フジミ模型
  • Omnibot Hello! Zoomer 【日本おもちゃ大賞2014 共有玩具部門 大賞】
  • タカラトミー
・関連メディア