AIWeb3.0

生成AIの問題点 利便性や有能性に隠された課題に迫る

2024/07/29Iolite 編集部
SHARE
  • sns-x-icon
  • sns-facebook-icon
  • sns-line-icon
生成AIの問題点 利便性や有能性に隠された課題に迫る

企業が生成AIを活用する際の“7大リスク”とは?

ChatGPTの登場以来、生成AIはその利便性から仕事やプライベートなどあらゆる場面で活用されている。

生成AIの技術の進化は目覚ましく、生成AI関連の商品・サービスが次々と発表される一方で、業務目的での利用となるとさまざまなデメリットや問題点があるのもまた生成AIの現状である。本項では生成AIの問題点と対応策について考察していきたい。

「生成AI時代元年」ともいえるChatGPTを始めとする生成AIの急速な発展は各業界に革命的な変化をもたらしている。ある企業では作業の効率化、ある企業では新アイデアの創出と、企業ごとに導入理由は違えど、国内企業においてもさまざまな導入実績が報告されており、企業利益を生む重要なツールとして今後はさらに生成AIが企業にとってなくてはならないものになっていくことは想像に難しくない。

また、米国のマッキンゼー・アンド・カンパニーの調査によると、生成AIの経済的ポテンシャルはユースケースにもとづく観点だけで見積もっても年間で2.6~4.4兆ドルの経済効果をもたらすとされ、今後も右肩上がりで市場が拡大していくとしている。日本においても2023年から2030年にかけて年平均約47.2%の増加が見込まれ、2030年には1兆7,774億円と、2023年比の15倍弱まで拡大する見通しであるとされている。

株式市場においても生成AI関連銘柄が大化けした例が多数あり、たとえば、サウンドハウンドAI(SOUN)の株価は2月上旬に動意づき、2月27日の高値まで1ヵ月にも満たない期間で約4.6倍化した。サウンドハウンドAIは米国株市場における話だが、日本市場においても株価が急上昇しているAI関連株が相次いでいる。市場の拡大とともに株価も上昇していくのは間違いない。

生成AI関連の商品・サービスも今後は次々とあらたなものがリリースされていくことも想像に難しくない。将来的に生成AIはマルチモーダル化によって、ユーザーは複数の情報やシステムを生成AIを介し、なおかつ、ユーザーがシステムの複雑さを意識することなく、シームレスに連携させて使用できるようになると考えられている。たとえば、生成AIがUIとなり、ユーザーの入力に応じて、システムを選択・活用するようになるのも可能になるだろう。実際にUI関連に関しては、生成AIでUIのデザインやソースコードを生成することもできるようになってきている。瞬時にUIを生成するAIツール「Galileo AI」などが代表例だ。Galileo AIは誰でもブラウザ上ですぐに使えて、ノーコードでUIを自動生成できるため、これまでFigmaやAdobeXDなどのデザインソフトで進めていたUI制作の作業時間を大幅に短縮できるとして話題となっている。

また、AIエージェントの活用も現在より実用化され、生成AIが人やシステムを動かす時代になっていくことも予想される。Microsoftは、Copilot AIシステムをバーチャル社員のように独立して動かすことができると発表したほか、OpenAIは、「見て、聞いて、話すことができる」GPT-4 Omniを公開しており、同社のサム・アルトマンCEOは、AIエージェントは最も技術的ポテンシャルがあるとしている。

このようにAIエージェントの実用化に向けて各企業が開発を進めている状況だが、その一方で、AIエージェントが普及するためにはいくつかの課題があることも指摘されている。たとえば、生成AIには誤った情報を出力する「ハルシネーション」という問題がある。AIエージェントが生成AIを使った場合、何らかの影響を受けて誤ったタスクを実行したり、間違ったアウトプットが生成されたりする可能性があるのだ。こうしたAIエージェントが常に正しくタスクを実行するわけではないという点で不確実性が高く実用性に向けてハードルが高いとされている。

企業が生成AIを活用する際の7大リスク

こうした問題点はAIエージェントに限ったことではない。企業が生成AIを導入するにあたり、いくつかの問題点やリスクがあることは周知の事実だ。現在、指摘されている問題点・リスクは以下の7つがあげられる。

  1. 機密情報の漏洩リスク
  2. サイバー攻撃リスク
  3. 著作権・商標権侵害リスク
  4. ディープフェイク
  5. 倫理的に不適切なアウトプットの生成
  6. 間違ったアウトプットの生成
  7. 生成AIの過信による業務ミス

まず情報漏洩のリスクだ。生成AIに入力したデータは基本的にはクラウド管理となる。そのため、会社内部の機密情報や個人情報などをインプットしてしまうと、生成AIサービスの提供者やユーザーに機密情報が流出してしまう可能性がある。実際に韓国のサムソン電子では従業員がChatGPTにセンシティブなデータをアップし、誤って機密情報を流出させてしまった事件も起きた。社内のソースコードが生成AI経由で外部に流出したこの事件で、サムソンは従業員によるChatGPTなどの生成AIの利用を禁止する規定を策定した。また、シンガポールの情報セキュリティ会社Group-IBによれば、日本からChatGPTのログイン情報が漏洩してダークウェブの闇市場で取引されたという。少なくとも661件が日本からの漏洩であることが確認されたようだ。生成AIを扱う以上はこうした情報漏洩のリスクと対峙しなければならない。

次にサイバー攻撃のリスクだ。今、危険視されているのは「プロンプトインジェクション」だ。プロンプトインジェクションとは、悪意あるユーザーが対話型AIに特殊な指示や質問を入力して非公開の機密情報やデータを引き出すサーバ攻撃である。これは実際に米国の大学生がMicrosoft社のBing搭載の生成AI検索エンジンに対してプロンプトインジェクションを行い、機密情報が流出するという事件が起きている。

著作権・商標権などの権利侵害やディープフェイクの問題も企業にとっては重要な課題だ。生成AIが既存の著作物を学習データ活用する場合、著作権者の許諾なく可能とされているが、生成AIによって生成されたコンテンツの公開や販売をする場合は通常の著作権侵害の検討が適用されるとしている。当然、生成されたコンテンツと既存のコンテンツとの類似性や依拠性が認められれば、著作権侵害として損害賠償請求・差止請求される可能性があるほか、刑事罰の対象となる。

問題なのは、企業が世の中すべての著作物を把握しているわけではないため、企業が預かり知らないところで生成AIによって生成されたコンテンツが著作権を侵害している可能性もあることだ。ディープフェイクも詐欺やフェイクニュースの拡散などに利用されるほか、そういった悪用で企業価値を下げられたりする可能性もある。

そういったリスクを放置していると、倫理的に不適切なアウトプットの生成につながってしまう。実際に香港の多国籍企業の財務担当者がディープフェイクを悪用したビデオ通話に騙され、約38億円を送金する事件が起きている。生成AIのアウトプットは学習データの内容に大きく左右されるため、その内容にバイアスがある場合は人種や性意識に関する差別や憎悪を助長する内容となってしまうリスクがあるほか、当然、先述の著作権侵害や肖像権の侵害を含む、倫理的に不適切なアウトプットが生成されてしまう可能性もある。

生成AIの著作権の侵害問題に関しては実際にNew York TimesがOpenAIとMicrosoftに対し、数十億ドルの損害賠償責任を求める形で訴訟を提起した。また、「ゲーム・オブ・スローンズ」の作者ジョージ・R・R・マーティン氏などの作家たちも著作権の侵害でOpenAIに対して訴訟を起こしている。

Case【2024年最新】生成AIによる問題事例4選

ChatGPTのアカウント661件がダークウェブで闇取引

2023年6月、シンガポールのセキュリティー企業Group-IBが、ChatGPTのアカウント10万件超がダークウェブの闇市場で取引されていることを発表。そのなかで少なくとも661件が日本からの漏洩であることを確認している。ChatGPTの標準設定ではプロンプトとその回答は保存されることから、回答に機密情報が含まれている場合、アカウントを入手できればそれらを盗み見できてしまう危険性を含んでいる。

機密情報や個人情報の生成AIへの入力は厳禁

社内機密のソースコードが生成AI経由で外部に流出

2023年、サムスン電子は従業員が社内機密のソースコードをChatGPTにアップロードして流出したことを公表。この事件を受けてサムスン電子は従業員に対してChatGPTなど生成AIの使用禁止を通知した。サムスンはこの情報流出がどれほど重大だったかは不明としているが、共有されたデータがほかのAIサービス運営企業のサーバに保存されることを懸念していた。なお、サムソンのこの事件を受けてAmazonも従業員に対してChatGPTで会社のコードや機密情報を一切共有しないよう通知している。

従業員向けの明確なガイドラインの設定と従業員のAIリテラシーの向上の必要性

R・R・マーティン氏を含む10人以上の作家から著作権侵害の訴訟

米HBOの番組「ゲーム・オブ・スローンズ(Game of Thron es)」の原作者として知られているジョージ・R・R・マーティン氏を含む10人以上の作家と、専門家団体である全米作家協会がOpenAIに著作権侵害を訴えている。また、これとは別裁判だが、同様にOpenAIを訴えている企業としてNew York Timesがある。New York TimesはあわせてMicrosoftに対しても著作権の侵害を訴え、こららの訴訟は、AIの利用と著作権の保護という点であらたな議論を呼び起こしている。

著作物を学習データとしてAIに利用する場合の許可取りを必須に

ディープフェイクによる巨額詐欺事件

2024年5月、都市設計やエンジニアリングに関するコンサルティングを手掛ける英国のアラップ・グループ(Arup Group)が同社香港支店において、ディープフェイクにより2億香港ドル(約41億円)もの大金をだまし取られたと発表した。この事件はディープフェイクを用いた巨額詐欺事件として話題となった。この事件を受けてプラットフォーマー側のOpenAIはロシア、中国、イスラエルを拠点とする5つの組織について、規約違反を理由にアカウントを停止している。

情報源の確認やファクトチェックの重要性

ハルシネーションの問題

そもそも、AIエージェントの実用化の壁となっているハルシネーションの問題は常に生成AIを利用する場合は付きまとうリスクだろう。現状では高度な専門性を要する分野での回答や定量データの抽出、計算において、ハルシネーションが多くみられる傾向にあるとの指摘もある。そのためハルシネーションの可能性も加味して活用することが重要になってくる。

また、生成AIは人間の倫理感覚や判断能力を有していないため、提供する情報が常に正確であるわけではない。それゆえにどのようなシチュエーションでも万能という訳ではない。生成AIは入力データに依存して機能する以上、そのデータが不完全だったり偏りを持っていたりすれば、当然、生成されるコンテンツも誤った情報を含むコンテンツが生成されてしまう。たとえば、法的根拠を含む契約書の作成や、保証書などの公的文書を作成する際に誤情報を含んでいたり、法的根拠が誤ったまま作成されてしまう可能性だってあるのだ。これは生成AIを利用するリスクというよりは、生成AIを利用する人間側のミスといえることだが、人間が扱う以上はこうしたヒューマンエラーのリスクも加味する必要はあるだろう。

「AIが仕事を奪う」論争

以上が現状、指摘されている生成AI導入に関するリスクだが、それ以前に「AIが仕事を奪う」論争というものが現在でも未だにネット上を含むメディアでは議論されている。いわゆる業務効率化の視点からAIが導入された場合、将来的に人間が不利な立場に追い込まれる仕事が多数あるという論争だ。確かにパターン化できる業務が多い仕事、たとえば、会計監査といった経理業務や受付や窓口、医療事務、出荷・配送業務、データ入力などといった仕事たちはAIに奪われる可能性が高いだろう。

しかし、この論争の重要な部分は、AIでなくなる仕事もあればあらたに生まれる仕事もあるという視点を置き去りにしているところだ。人類は長い歴史のなかでシステム全体に影響を与える技術を開発して、それを社会に組み込み、人間も新システムの社会に適応してきた。古くは産業革命、近年でいうとインターネットなどだ。当然、産業革命やインターネットの登場により、なくなった仕事もあっただろう。その分、旧システム化においては存在しなかったあらたな仕事も生まれてきたはずだ。

インターネット登場以前には当然プロバイダー事業という事業はなかったはずで、そういう事業が成り立つということはそこにあらたな需要が生まれているということである。AIの場合も同じである。AIを扱うのが人間である以上、AIエンジニアという職業が生まれている。

当然、AIの登場以前にはない職業だ。AIの開発に欠かせない機械学習を実際に行って、AIが動くためのシステムを構築するアノテーターもそうだ。そのほか、身体や精神に関わる仕事、創造性が求められる仕事、たとえば、医者や介護職員、学芸員、理学療法士、美容師やメイク、スポーツインストラクターなどはAIに奪われる可能性が低いとされている。

また、AIはゼロから何かを作り出すことに長けていない。そのため、柔軟性、思考力、リーダーシップなど、コミュニケーションや関係性の構築に関連することもまだまだ人間が担う領域だ。そういった無意味な論争よりも、ガートナージャパン株式会社が2024年4月に発表した「生成AIへの過度な依存は顧客離れを引き起こす」という見解の方が企業にとっては興味深い見方であるといえる。同社の調査によると、「2027年までに目的が明確でないままイノベーション推進としてテクノロジーの導入を進める企業や組織の80%は何の成果も得られず取り組みの中止に追い込まれる」としており、その理由として、「ビジネスモデルの変革を伴うイノベーションでは、推進体制を確立し、経営陣の直属として活動することが推奨されるが、同社が2023年に実施した調査では、イノベーション推進に取り組む企業の半数以上が、推進部門と事業部門との間ですでに軋轢が生じている、あるいは今後そうなると回答」とした調査結果によるものとしている。このような指摘こそ企業が重要視すべきだろう。

生成AIは新アイデアを創出する業務には向いていない

野村総合研究所の田村初氏によると、利便性とさまざまな課題が同居する現在の生成AIには向いている業務と向かない業務があるという。

同氏によると、「生成AIは雑多な情報を整理する、大量の文章を要約するといった作業が向いているが、事前学習したデータに基づいて回答を生成するため、どこかで聞いたことのあるような返答を生成しがちで、あたらしいアイデアを創出するような業務には向いていない」としている。

生成AI活用に積極的な経営者と不安を感じる多くの従業員

では各リスクに対して企業側はどういった対応が求められるのだろうか。まずは明確に得意不得意が存在している現状の生成AIの特性を把握し、生成AIを活用する範囲を適切に設定して成果の最大化を図り、リスクを最小化することが重要だ。これにより不適切な情報生成や不意の法的問題の防止につながるだろう。

次に、利用するAIツールが機能、性能、セキュリティ対策の面で自社の要求を満たしているかを選定することが必要だ。各企業の状況や目的に最適なAIツールの選定と導入が安全かつ効率的なAI活用に向けて重要であるとともに、自社のリスクを最小化することができる。これら2点は情報漏洩やハルシネーションのリスクを軽減するのに必要不可欠であるといえる。当然、生成AIを導入する以上はデータの正確性、偏りのなさ、機密性の保持は、リスクを最小化する上で極めて重要だ。入力データに基づいて動作する生成AIはデータマネジメントの質がAIの出力品質に直結する。そのため、適切なデータマネジメントを実施することはデータの質を確保し、情報漏洩や不正確な情報生成のリスクを低減することができる。

そして、生成AIを人間が扱う以上は当然ヒューマンエラーのリスクの可能性を最小化することも重要だ。そのためには企業が従業員向けの明確な利用ルールやマニュアル、具体的には社内での使用目的、使用範囲、倫理ガイドライン、データの取り扱いについて設定する必要だろう。さらに従業員に対しては個々のリテラシー、つまり、AIに対する理解とスキルを向上させることも企業にとっては重要である。社内で研修プログラムや実践的なトレーニングなどを実施して、生成AIの基本的な知識、適切な使用方法、関連するリスクを従業員に理解してもらった上で、効率的かつ責任ある方法で使用できる環境を構築することが必要だろう。

世の中でDX化が叫ばれているなか、経営者が形だけDXを取り繕っても従業員は苦労する。AIを導入し活用していくためには現場との連携が必要であり、状況を確認せずに導入すると、「使いにくい」「業務が複雑化した」「不具合発生時の対応フローがない」といった事態を生み、導入しても活用されずに失敗するケースもある。経営者のスタンスとして、課題を明確にしてAI導入の目的を決め、AIと人間の業務を明確にし、現場と連携しながら進めるといった姿勢が求められる。

企業の生成AIの活用事例6選

旭鉄鋼:生成AIを活用して製造現場を組織的に改善

旭鉄工では改善活動を属人的に管理するのではなく、生成AIを活用することで共有されたノウハウ活用により、改善方法をシステム化している。これにより社内の知見が現場の隅々までに共有され、より生産性の高い改善活動が可能になったという。

セブンイレブン:生成AIの活用で商品企画にかかる時間が10分の1に短縮

セブンイレブンでは商品企画の時間を大幅に削減するために生成AIの活用を開始。これにより商品企画にかかる時間が最大で90%削減され、市場のトレンドや顧客のニーズに迅速に応える、あらたな商品を提供できる見込みだとしている。

パルコ:生成AIで作成した広告動画を公開

パルコは生成AIを駆使した動画広告「HAPPY HOLI DAYSキャンペーン」を公開。この広告は人物から背景にいたるまで、プロンプトから構成され、ナレーションや音楽もすべて生成AIにて作成されている。

アサヒビール:従業員の社内情報検索を生成AIで効率化

アサヒビールではビール醸造技術や商品開発に関連する技術情報の要約と検索を効率化することを目的として、研究開発部門を中心に生成AIを活用した社内情報検索システムの開発に取り組んでいる。

LINE:生成AIを活用して1日2時間の業務時間を削減

LINEヤフーはギットハブの「GitHub Copilot」を全面的にソフトウェア開発に導入して、エンジニアが実装したい機能や動作に必要なコードを自動生成し、エンジニアの作業時間を1日当たり約2時間削減している。

メルカリ:売れやすい商品名などをAIアシスタントが提案

メルカリは出品済みの商品情報を分析し、売れ行きを良くするための商品名や説明文を自動生成して提案するAIアシスタント「メルカリAIアシスト」機能の提供を開始。取引の活性化に寄与することが期待されている。

AI今後のポイント

  1. 高度な自然言語処理、リアルタイムでの多様なデータ処理能力、個人のニーズに応じたコンテンツ生成能力を備え、さまざまな分野においてよりパーソナライズされたサービスが提供されるようになる。
  2. 生成AIが状況を理解し、最適な行動をするAIエージェントが普及。従来型UIからエージェントを通した対話型UIに置き換えられ、ビジネスや日常生活などさまざまなサービスの入口にな可能性も。
  3. 人間の創造性とAIの処理能力が協働することであらたな価値を生み出し、従来では考えられなかったアイデアや解決策が生まれる可能性もある。

現在、生成AIの技術・サービスは日々進化しているため、その都度、あらたな活用方法や利用プロセスが登場している。それに応じてあらたなリスクが生じる可能性は十分考えられる。各企業が将来性あるグランドデザインのもと、生成AIを導入後もシステムや活用法を定期的に見直し、必要であればアップデートなどの対応を常に検討することも重要だ。そのためには国内外の生成AIに関する最新の動向を常に把握しておく必要があるだろう。


関連記事

AIが創るあたらしい世界 過熱感の増すAI領域の「今」

GMO AIで未来を創るNo.1企業グループへ 内田朋宏独占インタビュー

SHARE
  • sns-x-icon
  • sns-facebook-icon
  • sns-line-icon
Side Banner
MAGAZINE
Iolite(アイオライト)Vol.10

Iolite(アイオライト)Vol.10

2024年11月号2024年09月29日発売

Interview Iolite FACE vol.10 デービッド・シュワルツ、平田路依 PHOTO & INTERVIEW「ゆうこす」 特集「日本国内の暗号資産業界動向」「トランプvsハリス 暗号資産業界はどうなる? 」「評価経済社会は予言書だったのか」 Interview :株式会社メタプラネット サイモン・ゲロヴィッチ、CALIVERSE キム・ドンギュ 連載 Tech and Future 佐々木俊尚…等

MAGAZINE

Iolite(アイオライト)Vol.10

2024年11月号2024年09月29日発売
Interview Iolite FACE vol.10 デービッド・シュワルツ、平田路依 PHOTO & INTERVIEW「ゆうこす」 特集「日本国内の暗号資産業界動向」「トランプvsハリス 暗号資産業界はどうなる? 」「評価経済社会は予言書だったのか」 Interview :株式会社メタプラネット サイモン・ゲロヴィッチ、CALIVERSE キム・ドンギュ 連載 Tech and Future 佐々木俊尚…等