AIが面接をしたら、何でも許されるのか?

前の記事の続き。この記事がベースね。そしてこれからのAIを考えると逆なアプローチが必要になる。

いまは探索的、つまりデータからルールをつくるのが流行りであり、技術的最先端だ。でもこれからはデータドリブンではなく、ルールドリブンになる。

そして面接の例を見たとき、ぞっとした。

このデータドリブンの一つの事例としてあげられてたのが人工知能による面接システムだ。そうするとデーターを根拠に何の忖度もなく意思決定される。

データを大量を入れた結果、男性より女性の方が職場に合わないというルールが機械学習から生まれれば、人種、性別で不合格になるシステムができるかもしれない(逆もありうる)。ここにニューラルネットワークの存在上、プログラマーが制御することは困難だ。

つまりデータを軸にしてるから、という言葉でいろんな差別が許される可能性がある。

福島出身は正社員不可、アルバイトでしか採用しないなんて基準があったとしても誰も分からない。AIが自動的にロジック作ってるからだ。

極めてゾッとするが、もし血液型、性別、人種、出自を評価基準にしていたら、それは許されない。人権侵害、異常な会社と言われるだろう。

でもニューラルネットワークによる人工知能による判断だったらどうだろうか?判断基準は公開する必要はない。というより分からない。ただ不採用とか採用とか実績がいいというような結果と、履歴書に書いてあるパラメーターから最適化した結果だからだ。

むかし統計による最適化が避難されたことがある。それが理由で「この人から生まれた子供は劣等な人類になる可能性が高い」という理由で子供が埋めなかったり、死ぬことがあった。

このAIによる結果と、統計の結果に根本的な違いはどこにあるのだろうか?私にはその違いは見えない。

それは未来の話ではない。いますでに日本でも起きてるし、韓国では普通だ。
いまは人工知能面接用の学校があるんですってよ、奥様。

AIが人類を滅ぼすみたいなイーロン・マスクが心配してるようなハイレベルは人工知能の登場を心配するはるか手前に、機械学習によって人類を楽で幸せにする最適化が人類を面倒で不幸せにすることが起きる。

そして、「AIが人類を楽にする」「AIが人間の仕事を奪う」とAIが神か何かだと考え、その凄さを鵜呑みにする雰囲気だ。このリスクにすさまじく寛容な社会になっている。

いまほどデータやらAIを鵜呑みにする社会は久しぶりだ。
恐ろしいことがまってなければいいが・・・

つづくかも

Toshiaki Ejiri: Born in Fukushima, working as web analytics consultant since 2000.