現時点での、生成AIの企業での活用状況、および法規制(弁護士監修)のまとめ
ChatGPTをはじめとする生成AIへの熱狂も、最近では落ち着いてきました。
しかしこれは、逆に言えば「企業が使途を真剣に考え始めた証」でもあります。「すごい!」「面白い!」だけでは業務には使えないからです。
業務で生成AIを活用するためには、ユースケースの研究や生成AIの限界、そしてリスクなどの調査が必要であり、それらには時間が必要です。
企業における生成AIの導入が進む
実際、戦略コンサルティング会社のベイン・アンド・カンパニーがグローバル大手企業約600社を対象に実施した意識調査によると、半数近い企業が何らかの形で生成AIの活用を検討し、また、一部の企業はすでに導入しているとの回答が得られています。
調査によれば、主たるユースケースは組み込みのチャットボット、コーディングサポート、コンタクトセンター、ナレッジ管理、プロセスの自動化、そしてマーケティングと続きます。
ベイン・アンド・カンパニーは現時点では大半の企業は「様子見」の段階にあるとしていますが、いくつかの会社での先進的な事例を紹介しています。
例えば、コカ・コーラはGPT-4と画像生成モデルのダリ(DALL-E)を用いて、コカ・コーラのボトルやロゴを使ったアート作品を制作できるプラットフォームをユーザーに提供しました。
優れた作品を制作したユーザーに対しては、3日間のワークショップに招待するというキャンペーンを実施し、ユーザのエンゲージメントを促しました。
また、富裕層向けビジネスを展開するモルガン・スタンレー・ウェルス・マネジメントは、GPT-4を用いて4万人以上のフィナンシャル・アドバイザーの業務を支援するAIナレッジ・アシスタントを提供しています。
顧客からの問い合わせに対して、AIアシスタントの活用によって、社内の文献検索に多くの時間を割くことなく、正確な回答ができるようになりました。
一方で、国内企業にも動きがあります。
例えば大手代理店のサイバーエージェントが制作する広告の数は3か月あたり10万本と、この2年で4割増えましたが、この状況に対処するために生成AIが導入されています。
バナー広告の内容について、商品の素材やキャッチコピー、人物、背景といった構成要素ごとに広告効果を予測し、キャッチコピー文案を自動生成してデザイナーに提案します。
最終的なデザイン作業やクリエイティブの決定は人間の仕事ですが、極予測AIの導入により、新たに作った広告クリエイティブが既存の広告に勝つ確率は現在24%で、キャッチコピー文案の自動生成機能の利用開始前に比べて14ポイント向上したといいます*4。
そして広告の出来栄えを判断するディレクター職はかつて30~40人いましたが、現在は0になっています。それまでのディレクター職は営業などに転向しています。一方デザイナー職は3年前に比べて約4倍近くの300人にまで増強されています。
また、営業領域で生成AIを早期に導入した企業のひとつとして注目されているのが日清食品ホールディングスです。
オープンAIのGPT-4をベースにしたプラットフォームで、商談内容や資料の構成の作成といった作業だけでなく取引先情報やマーケット情報の収集にも活用しています。
ただし、顧客情報や機密情報などの取り扱いについてはリスクがあるため、日清食品ホールディングスは、マイクロソフトの認証機能を組み合わせたシステムでGPT-4を利用しており、さらに「ChatGPTやGPT-4には再学習をさせない」という形を取っています。
一般に公開されている無償のChatGPTやGPT-4をそのまま使うと、入力した内容がAIの再学習に利用され、どのような形で自社の機密情報が漏洩するかわからないというリスクが生じてしまうからです。
国内では他にパナソニックホールディングスやベネッセホールディングスが同様のシステムで生成AIを利用していますが、利便性だけでなく、違った本音もあります。
それは、自社で専用環境を用意しなければ社員が勝手にオープンAIのサービスを利用してしまう懸念がある、というものです。すると、入力した内容はオープンAI社のAI学習に使われる可能性があります。
それよりも、管理の及ぶ範囲内でChatGPTやGPT-4を社員に提供したほうが良いという判断です。(「ChatGPT産業革命」日経BPムック)
ガートナージャパンは、イノベーションが過度にもてはやされる期間を経て幻滅期を迎え、最終的には市場や分野でその重要性や役割が理解され、生産の安定まで進化する共通のパターンを「ハイプ・サイクル」で示しています。これによれば、「生成AI」はあと2~5年で主流の採用に達する見込みです。
欧州における生成AIへの規制
しかしこのような活用が進む一方で、法的リスクも顕在化しつつあります。
特に欧州では、米国のテックジャイアントに対する反発が強く、規制が強化されています。
例えば、イタリアでは2023年3月末に、同国のデータ保護規制機関GPDP(Garante per la Protezione dei Dati Personali)が、ChatGPTの利用を禁止すると発表しました。
さらに、イタリアの動向を受け、欧州データ保護委員会(EDPB)は2023年4月13日に「ChatGPT」に関するタスクフォース(任務部隊)の立ち上げを発表しました。
EDPBはおもに、以下のように「ChatGPT」がユーザーの年齢確認を怠っていることや、個人データの保護に関する法律を守っていないことを追求しています。
プライバシー保護法の違反:「ChatGPT」が個人データを処理する際に、データ管理者としての責任を遵守していない可能性がある
個人情報の不当な収集:「ChatGPT」のアルゴリズムを学習させるために、適切な法的根拠なしに個人データを大量に収集・処理している可能性がある
透明性の不足:ユーザーに対して情報収集の出典や方法について十分な説明をしていない
年齢確認システムの不足:「ChatGPT」が13歳未満のユーザーに不適切な情報を提供している可能性がある
データ漏洩のリスク:ユーザーのデータが不正にアクセスされる可能性がある
その後、2023年4月28日、イタリアのデータ保護当局は、OpenAIが当局によって指摘されたデータ保護の問題に対処したとして、「ChatGPT」をイタリアで使用できることを決定しました。
具体的には、以下の条件が解決したとされます。
・データ処理の方法の明確化
・年齢確認の仕組みの整備
・オプトアウトの仕組みの整備
・AI学習に関する情報処理の個人への通知キャンペーンの実施
イタリアの要請に対して何もしなければ、OpenAIは最大で2000万ユーロ(約29億円)または年間売上高の4%の罰金が科せられる可能性があったため、OpenAIの対応は迅速でした。
しかし、EUのデータ保護委員会は「ChatGPT」のプライバシー保護に関するタスクフォースの作業を継続する予定です。また、特別タスクフォースの設立と同時に、スペインのデータ保護庁も「ChatGPT」が個人のプライバシーを侵害している可能性があるとして、OpenAI社の調査を開始すると発表しています。
ただし現在、EU全体では、AIの使用に関する規則がまだ定められておらず、EUの執行機関である欧州委員会のブルトン委員は、生成AIが引き起こす可能性のあるリスクを考慮し、数カ月以内に新たなAI規則法案をまとめる計画が進行中であるとNHKの取材に答えています。
日本における法的規制の概要
さて、日本においてはどのような規制が存在するのでしょうか。
ここから先は
生成AI時代の「ライターとマーケティング」の、実践的教科書
ビジネスマガジン「Books&Apps」の創設者兼ライターの安達裕哉が、生成AIの利用、webメディア運営、マーケティング、SNS利活用の…
この記事が気に入ったらサポートをしてみませんか?