確率的勾配降下法
勾配降下法とは最小化したい関数がある場合にその関数の勾配を求め、その勾配をもとに関数の最小値を探索する手法。Aという経験入力に対して、機械学習では、大きく外れた解答からA'のような近い答えまで、さまざまな答えを導き出す。そこで、入力パラメータを更新しながら正解に最も近い(誤差が最小となる)値を求めるために用いられるようになったのがこの手法だ。確率的勾配降下法では少ないデータをもとに勾配降下法を用いるので、計算量が少なく済む。
ネオコグニトロン
人間は、目に入ってきた物体の色の濃淡を認識し、その物体の位置が多少変動しても前にみたものの濃淡と似ているから、それと認識している。ネオコグニトロンは福島教授が発明したこの働きを機械に行わせる仕組み。入力された画像の特徴の抽出を行う学習層と、位置ずれを許容する学習層を交互に重ねながら検証を繰り返し、認識範囲を広げていくことで画像が何を描いたものなのかを認識していく。現在の生成AIにおける画像生成技術などのベースとなっている。
生成AI革命
1980年代になると、コンピュータの性能が飛躍的に上昇し始める。それまで簡単なことしかできなかったAIに、専門的な推論や知識を学習させることが可能となった。そんななかで、今回ノーベル賞を受賞した研究者の面々がAIの研究を開始した。
彼らの研究のもとになったのは、日本人研究者の成果だった。日本でも、通商産業省(現在の経済産業省)を中心に500億円近い予算をかけたAI研究が行われることとなる。
しかし、インターネットが存在しない時代。ビッグデータにあたるデータは人力で入力しなければならず、入力した大量のデータを処理できるほどまではコンピュータのスペックが至っていなかったため静かにブームは鎮火した。
ところが海外では、今回ノーベル賞を受賞した面々が、第二次AIブーム時に並行して、甘利氏や福島氏が理論を確立させていた機械学習の手法を発展させ続けていた。説明した通り、機械学習は、機械がニューロンネットワークを使って自分で学習をしていく。
人間が手入力で物事を教える必要はないため、第二次AIブーム終焉後も、少人数で開発を継続していくことが可能だったのだ。日本でのAI研究は下火となったのに対して、海外は2000年代以降目まぐるしい成果を上げ続け、現在の生成AI革命に至っている。
さて、生成AIが海外を中心に発展してしまったことで、現在日本は大きな足かせをはめられている。機械学習に用いられる大規模言語モデル(LLM)は、英語主体のものとなっているのである。そのためChatGPTを始めとした主流の生成AIは、どうしても日本語の表現が苦手な傾向にあり、ビジネスで使いにくい。
そこで国内では、日本語を使ったLLMの開発が急ピッチで進んでいる。本邦にはAI研究における下地は十分にあるのだ。日本語ベースのLLMができあがれば、より日本で使いやすい生成AIが誕生してくることだろう。
COLUMN
2024年11月現在日本発の注目生成AI
ELYZA
東京大学発のスタートアップELYZA社が、米国のMeta社の大規模言語モデル「Llama2」をベースとして開発した、日本語への対応に優れる生成AIの基盤技術。日本語による執筆や情報抽出の性能に優位性があり、日本語の曖昧な表現に強い。
tsuzumi
生成AIが抱える問題として、学習に要する電力消費量が大きいことがあげられる。そこで、NTTが開発したのが日本語処理に特化したLLM「tsuzumi」だ。パラメータサイズを絞ることで軽量化及びコストダウンに成功し商用展開も始まっている。
関連記事
AI時代の到来
相次ぐAI研究者のノーベル賞受賞からみえたAIの社会進出