戻る

このページは以下URLのキャッシュです
http://rss.rssad.jp/rss/artclk/T7he30zk4qYy/c32d79872995dbb651c4ad7e7ed27bdc?ul=1lCAIZBlAqwzkJf7CgbrvHKT9giJLQRuwR6PvSphS0Zl4_BXn9vRst5P53mOT1hHSclrhujZkgo0o4vRwycVKBDZOfkpMFdeOggwoluDqyD_OUSMcWP._sK2H6TXN.K8.0Sn4YP


AIの「自己過信」を抑えることが反乱を防ぐカギかもしれない|ギズモード・ジャパン

AIの「自己過信」を抑えることが反乱を防ぐカギかもしれない
Image: Leremy/Shutterstock.com

AIの知能が人類を遥かに超え、私たちに対して反乱を起こす…。

そんな心配をしたことは誰でもあるかと思います。なら、AIから自信をなくし、人間の承認なしにはいられない様にしたらどうでしょう? 人類への反乱はともかく、そうすることがアルゴリズムの進歩に繋がるのではと、一部の研究者たちは提案しています。

先日発表された論文によると、カリフォルニア大学の研究者チームは現実的に(と同時に哲学的に)AIはどれだけ自信を持つべきかという問題に取り組んでいるそうです。カリフォルニア大学の研究者であり、論文の執筆者の一人でもあるDylan Hadfield-Menell氏は、Facebookニュースフィードのアルゴリズムは、AIの自信が暴走した完璧な一例だとNew Scientistに記しています。ニュースフィードのアルゴリズムは、ユーザーがクリックしそうな記事を選定してフィードに流すことに長けていますが、クリック稼ぎに夢中になるばかり、ニュースが適切かどうかの判断を怠っています。Hadfield-Menell氏は、AIが人間の監修を求めるようになれば、フェイクニュースを認識してより適切な判断ができるようになると考えているのです。

この発想にデータ的な根拠を与えるため、彼のチームは「オフスイッチ・ゲーム」と名付けた数学モデルを作りました。内容は簡単です。まず、停止用のオフスイッチをつけたロボット(AI)に仕事を与えます。人間はいつでもこのオフスイッチを押すことができますが、ロボットが適切だと判断したときだけ人間の権限を無効にできます。AIにとっての「自信」とは色々な意味になりえます。たとえば、自分のセンサーが人間の五感より優れているという前提で判断するようトレーニングされ、状況が危険だと判断した場合、人間のオフスイッチ権限を制限するということかも知れません。与えられた仕事の内容次第で、あらゆる要素が絡んできます。

ただ、この研究は「どれだけ自信があると過信になるのか」という問題への結論は出していません。それはあくまでケースバイケースだからです。しかし、AI自身の能力の認識と人間の判断力に対する不信に基づいた、AIの自信に対する理論モデルを提案しています。

<

あわせて読みたい
    powered by CXENSE