佐々木俊尚氏にテクノロジーと社会の未来を訊ねる連載企画。
今回のテーマはAI、そして人との「対話」
——今回はご著書である『AIの未来からビジネス活用術までChatGPTについて佐々木俊尚先生に聞いてみた』が発売されたこともあり、改めてAIと人間の「対話」についてお聞きできればと思います。まず、今年も後半に入り、生成AI全体の話題も落ち着いてきたと感じるのですがいかがでしょうか。
佐々木俊尚(以下・佐々木):ガートナーという米国の会社が毎年発表している『ハイプ・サイクル』というものがあります。あたらしいテクノロジートレンドが出てくると、最初は期待度がマックスな『過度な期待』のピーク期、熱狂期みたいなものがあり、その後必ず幻滅期がやってきて、幻滅期が過ぎた後に初めて啓発期、普及期に入り、本格的な生産性の安定期に入ります。
8月後半にそのハイプ・サイクルが発表されて、ChatGPTや生成AIはまさにそのピーク期で、メタバースが幻滅期という状況です。だからChatGPTは今年後半ぐらいから来年ぐらいにかけて幻滅期に入る可能性もかなりあるだろうなと。
——現状の生成AIにおける課題にはどのようなものがあるでしょうか。
佐々木:AIが間違った回答をする、いわゆる『嘘を吐く』という『ハルシネーション』という問題があります。これに関しては、ChatGPTがインターネット全体を学習した後、対策として人力で、ヘイトや差別につながるもの、フェイクニュースなどの怪しいデータを取り除いているんですね。
しかし、取り除いたデータだけでもその量は膨大で、それを完全に取り除く、というのは難しいんじゃないか、という話はされ続けているわけですよね。
また、少し前に話題になったんですが、『視覴(※)』っていう単語があるんです。それは本来存在しない単語で、ChatGPTが生成したんです。でもその単語で検索すると、大量にWebページがヒットする。なぜかというと、それだけChatGPTの生成したページがすでに蔓延しているという話なんですね。
ここで問題になってくるのが、ChatGPTはインターネット上のデータを学習しているわけです。そのネット上のデータはもともと、人間が作った物のはずだったのに、AIが作ったWebページがどんどん増えてくると、それをまたChatGPTが学習する。だから自分自身を学習し続けるだけになってくる。そうすると一体、この先何が起こるのか予想がつかない。
もう1個の問題として、ChatGPT、対話型AIに質問すると、その入力したデータやテキスト内容も学習されてしまう。そうすると、機密情報などを含めて質問すると、それも学習されて他の会社の回答に含まれてしまうということが起きます。だから日本企業でも7割程は、ChatGPTは会社で使わない方針という調査結果とかも最近出てますね。
この問題に関しては、Microsoftの365 Copilotや今後リリースされるWindows Copilotにおいて、著作権や知財の処理が滞りなく行われる仕組みになっています。こうして問題が回避されて『ツール』として使えるという認識が広まれば、幻滅期を乗り越えて、本格的な普及期に入ってくる可能性はあると思います。
※視覴
本来存在しない単語。ネットで検索すると、AI出力されたと思われる文章内において、「視覴者」という使い方が見受けられる。「聴」を「覴」としたAIのアウトプットは、ハルシネーション(人工知能の幻覚)の典型例として話題になった。