AI

かつてAIの研究・開発の最先端だった日本の過去と現在

2024/12/05Iolite 編集部
SHARE
  • sns-x-icon
  • sns-facebook-icon
  • sns-line-icon
かつてAIの研究・開発の最先端だった日本の過去と現在

日本人が先鞭をつけていた 人工知能の開発理論

2024年のノーベル物理学賞を、ジェフリー・ヒントン氏とジョン・ホップフィールド氏が受賞した際に、いくつかのメディアが「なぜアマリではないのだ」と騒いでいたことを知っていただろうか。ここでいう「アマリ」とは、東京大学名誉教授の甘利俊一氏のことである。

甘利氏は、ヒントン氏とホップフィールド氏が研究を始めた1982年代に先駆けること10年前の1972年に、彼らが発見したニューラルネットワークの仕組みとほぼ同内容の論文を発表していた。実際にヒントン氏は、「自分の研究内容を最初に発見したのはアマリだ」とさまざまな場で発言している。

1970年代にニューラルネットワークと深層学習を研究していた日本人には、もう1人。福島邦彦氏もいる。福島氏は、AIの深層学習という概念を発想し、その実現のための理論を1978年には考案・確立した。

日本は、AIという概念の基礎となるニューラルネットワーク研究において、間違いなく世界に先駆けた地域だった。それが、どうして現在AIの後進国とみられるようになってしまったのだろうか。

最初に、AIが学習するとはどういうことなのか簡単に知っておく必要がある。生物の神経系には、ニューロンという細胞がある。このニューロン同士は、軸索と呼ばれる器官と樹状突起と呼ばれる器官で互いにつながっており、神経細胞が受けた情報を伝達しあっている。軸索と樹状突起が結合している部分をシナプスと呼ぶ。

このニューロン同士で情報を伝達するためのシナプスの結合強度は、外からの刺激で定期的に変化をする。たとえば、熱いものを触ってしまったという刺激を神経細胞が初めて感じた時、その刺激をほかのニューロンに伝えるためのシナプスが形成される。

初回は、細いシナプスでしかないが、2回目、3回目と熱いものに触れれば、そのシナプスはどんどんと太くなっていき、やがて熱いものに触れては痛い、怖いという反応につながる。これが、生物の学習だ。

シナプスへの刺激にあたる部分を電気信号のon/offで行い、繰り返される刺激による学習をコンピュータのon/offの回数などの重さを関数の値として置き換えれば、人間の学習のようなことが機械で再現できるのではないか。

この理論は、第二次世界大戦中から提唱されていたが、机上の空論としてさして注目されなかった。ところが、1967年、小脳の神経回路網の構造が判明し、空論だと思われていたモデルが、それほど現実と差異がないことが判明した。にわかに機械学習に対する研究熱が世界的に高まった。

こうして世界的にブームとなったAI研究であったが、その後、当時の推論では計算上学習に限界があることが証明されてしまい、1970年代に入る頃には、機械学習の研究ブームは落ち着いてしまった。ところが、日本だけは違った。

世界が機械学習をあきらめていくなか、甘利氏や福島氏のような日本人の研究者は、計算上限界だと思われていた壁を乗り越えようと必死に研究をしていたのだ。この時に発見された「確率的勾配降下法」や「ネオコグニトロン」といった成果が、現在のAI誕生の基礎技術となっていくとは研究をしていた当人たちも思っていなかったのかもしれない。

生成AIにつながる日本発のAI理論

確率的勾配降下法

勾配降下法とは最小化したい関数がある場合にその関数の勾配を求め、その勾配をもとに関数の最小値を探索する手法。Aという経験入力に対して、機械学習では、大きく外れた解答からA'のような近い答えまで、さまざまな答えを導き出す。そこで、入力パラメータを更新しながら正解に最も近い(誤差が最小となる)値を求めるために用いられるようになったのがこの手法だ。確率的勾配降下法では少ないデータをもとに勾配降下法を用いるので、計算量が少なく済む。

ネオコグニトロン

人間は、目に入ってきた物体の色の濃淡を認識し、その物体の位置が多少変動しても前にみたものの濃淡と似ているから、それと認識している。ネオコグニトロンは福島教授が発明したこの働きを機械に行わせる仕組み。入力された画像の特徴の抽出を行う学習層と、位置ずれを許容する学習層を交互に重ねながら検証を繰り返し、認識範囲を広げていくことで画像が何を描いたものなのかを認識していく。現在の生成AIにおける画像生成技術などのベースとなっている。


生成AI革命

1980年代になると、コンピュータの性能が飛躍的に上昇し始める。それまで簡単なことしかできなかったAIに、専門的な推論や知識を学習させることが可能となった。そんななかで、今回ノーベル賞を受賞した研究者の面々がAIの研究を開始した。

彼らの研究のもとになったのは、日本人研究者の成果だった。日本でも、通商産業省(現在の経済産業省)を中心に500億円近い予算をかけたAI研究が行われることとなる。

しかし、インターネットが存在しない時代。ビッグデータにあたるデータは人力で入力しなければならず、入力した大量のデータを処理できるほどまではコンピュータのスペックが至っていなかったため静かにブームは鎮火した。

ところが海外では、今回ノーベル賞を受賞した面々が、第二次AIブーム時に並行して、甘利氏や福島氏が理論を確立させていた機械学習の手法を発展させ続けていた。説明した通り、機械学習は、機械がニューロンネットワークを使って自分で学習をしていく。

人間が手入力で物事を教える必要はないため、第二次AIブーム終焉後も、少人数で開発を継続していくことが可能だったのだ。日本でのAI研究は下火となったのに対して、海外は2000年代以降目まぐるしい成果を上げ続け、現在の生成AI革命に至っている。

さて、生成AIが海外を中心に発展してしまったことで、現在日本は大きな足かせをはめられている。機械学習に用いられる大規模言語モデル(LLM)は、英語主体のものとなっているのである。そのためChatGPTを始めとした主流の生成AIは、どうしても日本語の表現が苦手な傾向にあり、ビジネスで使いにくい。

そこで国内では、日本語を使ったLLMの開発が急ピッチで進んでいる。本邦にはAI研究における下地は十分にあるのだ。日本語ベースのLLMができあがれば、より日本で使いやすい生成AIが誕生してくることだろう。

COLUMN

2024年11月現在日本発の注目生成AI

ELYZA

東京大学発のスタートアップELYZA社が、米国のMeta社の大規模言語モデル「Llama2」をベースとして開発した、日本語への対応に優れる生成AIの基盤技術。日本語による執筆や情報抽出の性能に優位性があり、日本語の曖昧な表現に強い。

tsuzumi

生成AIが抱える問題として、学習に要する電力消費量が大きいことがあげられる。そこで、NTTが開発したのが日本語処理に特化したLLM「tsuzumi」だ。パラメータサイズを絞ることで軽量化及びコストダウンに成功し商用展開も始まっている。


関連記事

AI時代の到来

相次ぐAI研究者のノーベル賞受賞からみえたAIの社会進出

SHARE
  • sns-x-icon
  • sns-facebook-icon
  • sns-line-icon
Side Banner
MAGAZINE
Iolite(アイオライト)Vol.11

Iolite(アイオライト)Vol.11

2025年1月号2024年11月28日発売

Interview Iolite FACE vol.11 SHIFT AI・ 木内翔大、デジライズ・茶圓将裕 PHOTO & INTERVIEW 中村獅童 特集「Unlocking the Future AI時代の到来」「期待と懸念が交差し混沌極まる石破内閣 日本のWeb3.0は今後どうなるのか? 」「暗号資産取引に必要な 税金の知識を学ぶ!基礎知識や今からでも使えるテクニックを解説」 Interview :Bybit ベン・チョウ(Ben Zhou)、マネックスグループ株式会社 ゼロ室 室長/マネックスクリプトバンク 万代惇史・浅見浩志、カオーリア会計事務所代表 現役税理士・藤本剛平 連載 Tech and Future 佐々木俊尚…等

MAGAZINE

Iolite(アイオライト)Vol.11

2025年1月号2024年11月28日発売
Interview Iolite FACE vol.11 SHIFT AI・ 木内翔大、デジライズ・茶圓将裕 PHOTO & INTERVIEW 中村獅童 特集「Unlocking the Future AI時代の到来」「期待と懸念が交差し混沌極まる石破内閣 日本のWeb3.0は今後どうなるのか? 」「暗号資産取引に必要な 税金の知識を学ぶ!基礎知識や今からでも使えるテクニックを解説」 Interview :Bybit ベン・チョウ(Ben Zhou)、マネックスグループ株式会社 ゼロ室 室長/マネックスクリプトバンク 万代惇史・浅見浩志、カオーリア会計事務所代表 現役税理士・藤本剛平 連載 Tech and Future 佐々木俊尚…等