• GIZMODO
  • DIGIDAY
  • gene
  • cafeglobe
  • MYLOHAS
  • Glitty
  • machi-ya
  • roomie
  • GIZMODO
  • DIGIDAY
  • gene
  • cafeglobe
  • MYLOHAS
  • Glitty
  • machi-ya
  • roomie

ライフハッカー編集部ライフハッカー編集部  - ,  12:00 PM

Google、AIの「緊急停止用ボタン」を検討

Google、AIの「緊急停止用ボタン」を検討

160704button.jpg


Popular Science:人工知能(AI)はおそらく、Facebook上に大量にある写真をタグ付けしたり、ロボットに歩き方を学ばせたりするなど、おびただしい複雑な作業を自動化するのに最適な方法でしょう。コンピュータ科学者とロボット工学者は、このようなアルゴリズムを上手く作成できるようになりつつあり、進歩のスピードは恐ろしいほどです。だとすると、そろそろ、AIが間違ったことをしでかした時にそれを止める方法を考えなければなりません。


人工知能を開発する「Google DeepMind」は、オックスフォード大学の■「人類の未来研究所(The Future of Humanity Institute:FHI)」と協力して、人工知能アルゴリズムやロボットが暴走した場合の停止方法を提案する研究論文を発表しました。解決策とはいったいなんでしょうか。それは「大きな赤いボタン」です。

この論文は、2013年に実施された過去の研究に言及しています。その研究では、テトリスゲームをプレイしていたアルゴリズムが、絶対に負けない方法を考えだしました。それは、ゲーム自体を中断してしまうことです。機械がこういうずるい手を、意図的ではないにせよ、発見することはありうると予言していたのが、FHIでした。

FHIの創設者であるNick Bostrom氏は、著書『Superintelligence』のなかで、人工知能が自由に学べるようになると、その学習速度があまりにも速すぎて、人間はとうてい太刀打ちできないようになるだろうと書いています。このような事象は「特異点」と呼ばれ、1958年に数学者のスタニスワフ・ウラム氏が初めて使いました。

機械を安全に止めるといっても、電源コードをただ抜けばいいというわけではありません。AIが人類に損害を与えるほど危険になることを予測したシナリオはいくつかありますが、どの場合でも、AIは自律作動しているか、サーバーラックでホストの役割を果たしています。DeepMindとFHIによる論文は、電源を抜く代わりに、機械を騙す必要があると結論づけています。

そのためには、そのアルゴリズムを作った科学者たちが、「阻止手段」、つまり人間が「強制的にAIの動作を一時的に変更」できるようにするためのトリガーをインストールしなければなりません。別の言い方をすると、機械に「止まらなければならない」と考えさせるシグナルを送るわけです(『キャプテン・アメリカ』のスーパーヒーローであるバッキー・バーンズをコントロールする暗号のようなものです)。機械は、外部から与えられるコマンドに従うのではなく、自ら止まるという決断を下します。しかし、機械は騙されてそうするのです。少々ややこしい話ですよね。でもこれは、もはや人間の命令を聞こうとしなくなったロボットの裏をかく1つの方法なのです。

研究者たちは、このシグナルは誰もがいつでも送れるものではなく、AIを所有している人間だけが発信できる、限定的なシグナルでなければならないと述べています。そして、シグナルを発信するリモートコントロールに触れていますが、ひょっとしたらそれが、論文のはじめで論じられている「大きな赤いボタン」なのかもしれません。何だか恐ろしい感じです。

もちろん、こうした事態に至るのはきわめて限られた場合だけでしょう。仮に、特異点に達したAIが存在していれば、そのAIはおそらくこの研究論文を読んで、阻止手段を排除することができることでしょう。

論文の内容の多くは推測の域を出ません。なぜなら、一般化されたAIの具体的なアーキテクチャはまだ存在していないからです。しかし、用心に超したことはありませんよね。


GOOGLE CONSIDERS MAKING A "BIG RED BUTTON" TO STOP DANGEROUS A.I. IN AN EMERGENCY|Popular Science

Dave Gershgorn(訳:松田貴美子/ガリレオ)

MORE FROM LIFEHACKER

powered by
    
    
    
  

Kotaku

Recommended

© mediagene Inc.