ページの本文へ

Hitachi

Hitachi Social Innovation Forum 2017 TOKYO

講演1

11月1日(水)13:30-14:30

AIができることとできないことを正しく判断し
社会イノベーションに活用

AIが大学受験を突破する時代の社会変化

新井 紀子
国立情報学研究所
社会共有知研究センター長・教授

講演写真

講演写真
国立情報学研究所 新井氏

講演写真
AIについて解説する新井氏

「コンピュータは数学にもとづいており、数学には3つの言葉しかありません。それは論理の言葉と、確率の言葉と、統計の言葉です」と説明し、講演をスタートしました。
講演の前半は、ディープラーニングを含めた統計的機械学習の仕組みについての解説でした。期待損失というのは、すべてのデータの中で考えなくてはなりませんが、すべてのデータを持つことは不可能なので、サンプルを使います。そのサンプルの中で、経験的に損失が小さいものが、最も小さいものではないかと求めているのが、機械学習やディープラーニングの実情です。しかし、ディープラーニングを使うと、なぜか職人的チューニングの最適レベルまで自動でたどり着くことが多いのも事実です。

2011年に「東ロボくん」プロジェクトがスタートした当時、別のAIがクイズ番組で優勝したことに触れ、そのクイズは固有名詞と数字が答えになる問題であり、AIは問題文を読めているわけではないと説明。問題文に含まれている重要そうなキーワードで検索し、答えである確率が最も高いものを選んでいるだけなのです。
この方式では、センター試験の問題は解けませんでした。正解にバラツキが起きたのです。
「センター試験の問題は7割が正誤判定問題です。複数の選択肢の中で、正しい文はどれか、間違っている文はどれかを選びます。東ロボくんは、ここから自分で穴埋め問題を作ってから探しに行くように工夫しました。すると、たった1年で100点中76点を取れて、偏差値66.5を突破したのです。物は使いようなのです」(新井氏)。
スマホで「この近くの美味しいイタリア料理の店は?」と質問すると、美味しそうなレストランを勧めてくれます。しかし、「不味い」イタリア料理の店を尋ねても、同じ答えが返ってきます。さらに、「イタリア料理以外の店」と質問すると、和食や中華料理ではなく、ピザ屋が出てくるのです。つまり、「以外」を理解していないのです。これが未だに自然言語を理解させられない証拠だと説明しました。

このレベルでは記述試験は難しいと思われますが、東ロボくんは東大模試の真ん中あたりの成績となる論文を書くことができました。教科書などの膨大なデータを暗記し、東大が指定してくるキーワードから、この辺りかなと思う文章を抜き出し時代順に整理して、600字の論文にまとめました。
では、機械翻訳はどうかというと、機械翻訳に使われている言語モデルは、次に何を書くつもりなのかを確率で当てるようになっています。これは、タネを入れないと動かないので、自力で小説は書けません。それでも、語順を問われる問題には有効でした。ところが、会話の穴埋め問題では、間違った答えを選択しました。

次に、AIを過信することに疑問を呈しました。ニューラルネットワークは人間の脳を模倣してできているという新聞記事に対し、実際に使われているのはマウスの脳だと反論。マウスの脳をいくら集めても、政治や医療診断ができるとは思えないと否定します。
また、ロボットに目がついたという意見にも否定的でした。しかし、求められる精度の中で効率化が図れるので、画像診断や商品チェックなど応用範囲は広いとも説明しました。

それでも、大きな問題は残ります。メーカーは製造物責任を負わなければなりません。そこで求められるカメラの精度は非常に高くなります。しかし、搭載されているカメラの規格が変われば、膨大な費用をかけた教師データは使えなくなります。
「人間の教師データは自動で作ることができません。人間の教師データは人間社会のためにあります。人間の常識と、人間の倫理観と、人間の満足にもとづいた正解が求められるからです」(新井氏)。

東ロボくんは、数学の問題を自然言語処理して解くことができました。その結果、東大模試で上位2割の成績を残しました。しかし、現状のAIは人間を超えるほど知的になったわけではありません。AIは意味を理解できないし、正しいと保証することもできません。それよりも問題なのは、今後ホワイトカラーをめざす学生の多くが、AIを下回る成績だということです。
「多くの企業は優秀な人材が採れなくなり、イノベーションが進まなくなります。重要なのは、AIと差別化できる能力を持つ人間が育つかどうかです」と警鐘を鳴らしました。