Web Summit その3 Talk Robot

Talk Robotでは人間さながらに話すロボットが登場する。

この動画ではアインシュタインのロボットも登場するが、とても自然。

ただこれがエクスビジョンなのか本当に一人ひとりが考えて答えているかはわからない。多分前者ではないかと思う。

ある程度シナリオを作れば、あたかも会話をしているように演じることはできるだろう。

でも私達が自然な質問をしたときに答えられるか。私は懐疑的だがどの程度できるか見極められればと思う。

先日リース契約のウェブサイトについて考える会を開いたとき、AIがどの程度サポートで貢献できるか、という話を聞いた。

AIは確かに信じられないぐらいすごい能力を持っていて、画像を認識して、そこから猫とか人とか認識できる。相当高い精度で画像認識はできるようだ。

しかしそのとき何人かの有識者が口をそろえて言ってたのが、画像の認識は人類を超える能力をもつかもしれないが、文章の認識はまだまだ難しいということだ。

文章の認識は単語に分け、そこから関連性を見つけることから始まる。Googleの翻訳は最近かなり進化していて、(私にとってそれはとても役立ってるが)それは検索のデータをつかって最も当てはまりそうな訳を提示しているだけだ。文章を認識しているわけではない、言葉として次に出てきそうなものを出しているだけだという。

文章を理解し、解釈し、最適な答えを出す、ということの難しさは学習データーの構築に課題がある。

画像は簡単だ。元のデータでこれは猫、人、建物と学習データーを大量に作れば、それからテストを行い、学習し、類推できる。

文章は、ほぼすべての人が違う文章を書く。どれが人か猫かではなく、何を意味するのか学習データーを作るのが相当困難なようだ。

ま、囲碁で人間にAIが勝つのは絶対無理と言われたのに、あっさり負けたように、これは新しいテクノロジーを知らない無知なレベルだからの回答かもしれない。

時間があればお手並み拝見してみたいと思う。

Toshiaki Ejiri: Born in Fukushima, working as web analytics consultant since 2000.