人工知能が人類を淘汰するなんて心配するより大事なこと

Facebookで何気なくつぶやいたstoryが100近い、いいねをもらった。
そんなに反応いただくとは思ってなくてびっくりした。

アマゾンのアレクサ、“地球のために人間は死んだほうが良い”と持ち主に「自殺」を促す

exciteニュース

このことに対して、Naoyuki Nomuraさんのコメントは以下だった。

誰か熱心に学習させ、仕込む悪意の人がいれば、常時学習のシステムは、こうなります

Facebook

この話に対して発言したつもりが、ストーリーに以下だけが乗っていた。ストーリーに日頃全く投稿しないし、どうしてストーリーに乗ったのかちょっとよくわからない。

人工知能が人類を滅ぼそうのすることはないけど、人類の一部が自滅のために人工知能を使う可能性がリスクの本質です。

Googleの翻訳もスマートスピーカーも機械学習により最適化する。だから学習データーで偏ったデーターを入れ、偏ったデーターのほうが当てはまると判断できたら、機械学習による人工知能は偏った判断をするようになる。

特にスマートスピーカーのような会話に関するものであれば、質問に対して、答えとして「AIが人類を支配する時代が来る」とか「人類は滅びてAIが支配したほうがいい」みたいなことを何度もたくさんいう人がいれば少人数でもそのデーターが当てはまる判断するだろう。

今後翻訳とか検索結果だけではなく、インフラの根幹を担う自動運転とか工場のラインとか病院のシステムにも組み込まれるようにやれば、人間がプログラミングするより容易に、すばやくシステムは最適化される可能性はある。

たしかに便利だけど、機械学習がもつこの宿命的な問題点は気をつけておかないと、人類は滅亡した方がいいと思ってる人たちや、テロリズムが人を傷つけたり、社会を悪化させることに利用できる可能性がある。

いまロボットもドローンも人を傷つけないようなセーフティガードを設けているが、 TensorFlowのような機械学習の言語が誰でも使える以上、人を傷つけるための人工知能だって誰でも作れる。それは飛行機だってビルに飛び込めば大惨事になるのと同様、兵器にも災害にもなりうる。

だから、人工知能が人類を淘汰するなんて心配するより、誰かが自分たちの社会や大事な人達を攻撃しなければいけなくなる社会や環境を心配しよう。

貧困や差別、戦争などを心配することのほうが先だ。

Toshiaki Ejiri: Born in Fukushima, working as web analytics consultant since 2000.