企業で生成AI(ChatGPT,SD他)を使うにあたって気にすること

こんにちは、柚人です。
漏れなくへーしゃもChatGPT関連にはビクビクしている状況なんですが、ChatGPT(LLM/大規模言語モデル)によるチャットもStableDiffusion(イラスト生成AI)も火はついてるけれどあくまで一般利用における話で、じゃあ企業で使うとなったらどうなの?がちらほらTLや情シスSlackでも見かけるので、簡単にまとめてみたいと思います。
AI初心者向け、かつ企業の情シス向けの記事となります。

生成系AIについて知る

そもそも生成系AIとはなにか

ChatGPTに使われているLLM(Large Language Model)は、Wikipediaや論文を多数食っています。
非常に大量の文字データを取り込んだものになっているため、専門分野でない人が専門分野でないことを質問したときには「それらしい」回答が返ってきますし、合っている場合もあれば外れている場合もあります。
StableDiffusionは主にイラスト系生成AIの代名詞と言われるものですが、こちらも一つの製品名みたいなものです。他にもいろんなモデルがあり、StableDiffusionは昔の例えで言えば「VHSがStableDiffusionなら、DiscoDiffusionやMidJourneyはSONYのベータ」と言えば分かりやすいでしょうか。
似ているようで異なっていて、今の主流なモデルはStableDiffusionを基礎に目的別にチューニングされたもの、といったような感じです。
いずれもGenerative AI(生成AI)と言われていて、いくつものデータを学習していて、その学習傾向やタグ、作者の定める指向性によって同じ「プロンプト(ユーザーがAIに対して求める文言)」でも出力されるものも変わるので、それらも広義の意味で言えばFine tuningと言えるでしょう。
ChatGPTはIT界隈では騒がれますが、生成系AIの細かい仕組みを見たい方はこちらのスライドを見るのが一番早いと思います。(230ページあって、学術的な話も含みます)

プロンプトとファインチューニング

生成系AIを使う上で、プロンプトとファインチューニングの仕組みは避けて通れません。
上記で「ユーザーがAIに対して求める文言」と宣言しましたが、簡単にラーメンで例えてみましょう。

AIに対して「ラーメンが食べたいです、候補を出してください」と言えばどんなラーメンが出てくるか分かりません。
札幌ラーメンが出てくるか、アメリカのラーメン屋が出てくるか分かりません。
「私は博多ラーメンが食べたいです、博多市内で博多ラーメンを出している一番のラーメン店を紹介してください」と言えば、どこかのサイトのランキング一位の店の博多ラーメンを出してきます。
また、モデルが違えば上記のような自然言語記述ではなく「博多市内、ラーメン、ランキング一位、博多ラーメン、オススメ」という書き方をした方が綺麗に検出する場合もあります。

これがプロンプトの違いです。

しかし、AIが「博多」という言葉を学んでいなければ「博多?博多って何?ラーメンの一番でいいの?」となります。
つまり学んでいない言葉は処理できません。
また、料理専門のAIでない場合「ラーメンとは、麺を茹で、スープに入れた食べ物。中華料理をベースとして日本でカスタマイズされた料理」というwikiの言葉受け売りで処理するので、麺がパスタ麺だったりそばだったり、スープがコンソメだったりコーンポタージュだったりするかもしれません。
人間だったら「そりゃありえないでしょ」の常識が通じないわけです。AIには味覚も組み合わせ知識もありませんから。

ラーメン専門のAIを作るなら、博多ラーメンと長崎ちゃんぽん、二郎、天下一品の豚骨こってりetc、それぞれの画像に「これは博多ラーメン」「これは○○(店舗)のラーメン」「これは豚骨スープ」といったようにタグ付けをして、学習させる必要があります。
すると的確に「ああ、博多ラーメンで、ランキング1位なら○○のラーメンを出せばいい」とAIは決まった答えを出してきます。

これがファインチューニングです。

ChatGPTとOpenAI API、そしてChatGPT系アプリ

ChatGPTはOpenAI社が公開しているアプリです。非常に知名度が高いので皆さんご存知でしょう。
質問を投げる、ということはChatGPTのAIはそれを理解して言葉を返しているわけで、そこにGood/Badの評価をつけるということは「質問」を覚えているわけです。
また、倫理コードが設定されていて、倫理的にNGな質問などは答えられない、またはアラートを提示するようになっています。
つまり、ユーザーが使用する傾向を測り、より精度を高めるための知恵を蓄えるための準備はできています。
OpenAI APIは開発者が自作アプリなどにChatGPTの仕組みを使いたい人向けに公開しているAPIです。
一定量までは無料ですが、そこから先は従量課金となっています。
また、OpenAI APIはChatGPTと異なり、ライセンス費用、つまりは契約が発生するので、企業取引になるため、明示的に扱いを変える必要があります。
そのため、OepnAIのデータ利用ポリシーについては別途公開されています。
和訳され纏まっている記事があるのでこちらを見るのが良いかと思いますが、「最新」は常に変わるので、「公式ドキュメントを常に見る」という注意は引き続き必要です

ここで書かれているように、「API経由で送られたデータは学習に利用しない」「データ保持は30日間※法律の定める範囲」といったような、いわゆる「クラウド上に置くデータに関するデータ利用ポリシー」は他クラウド製品同様に明示されていますし、ChatGPT/DALL-Eは適用対象外、となっているので、生のChatGPTに社内情報や取引情報を書き込めば、それを学習し、他の人がその質問をしたときに該当情報を出してしまうことがある恐れがあることを示しています。

企業で使う上で

他クラウドサービスと何ら変わらない

企業で使うに当たっては、DeepLやもっと低レイヤーでいえば例えば知恵袋などのサービスに「個人情報」や「業務情報」を書かないといった教育はされているかと思います。
それら同様、生のChatGPTは利用するうえでのガイドラインを設けたり、(IP制限などで)そもそもさせないことが必要ですし、必要ならOpenAI社と企業利用の契約を結ぶ以外の選択肢はありませんが、ChatGPTの自社用テナントを作る、といったサービスはOpenAI社はやっていないので、もしChatGPTを社内で使いたい、というのならOpenAI APIの契約をして、GUIは自分たちで作るしかありません。

提供された内容の使用責任はすべて人にある

有名なキャプチャで昔2chを展開したころのひろゆき氏のインタビューで「嘘を嘘と見抜けない人に2chは向かない」という言葉があったように、ChatGPTはありとあらゆる情報の中から正しい「であろう」回答をしてきます。
ちゃんと理解していれば間違っているとわかる回答でも、素人はその間違いに気づけません。
そしてそれらをそのまま使ってしまい、誤った内容を第三者に提供してしまった場合、AIやそれを作ったOpenAI社などに責任を追及できますか?
答えはNoです。データを使うと判断したのはあなたです、となります。
AIは人格を持ちません、感情を持ちません、法の対象になりません。人が使う「ただの道具」です。

ただ、例えば明らかにプログラムにバグがあり、致命的な欠陥であることが証明されていて、それによるものなら追及できるでしょう。
こういったごく一般的な情報を信じる信じない、は「人」に委ねられる世界は、まだ続いています。
ここを利用する従業員には十分に理解させる必要があります。

既存クラウド製品へChatGPTが組み込まれる場合、データの置き場所、流出について確認が必要

ここは法務分野になりますが、例えば使っている会社も多いであろうSlackのケースで説明します。

機能で「会話の内容をサマリする、ベストプラクティスや過去の情報を撮ってくる」とあるので、「Slack内の会話を読み解いて、分解再整理している」ことを意味します。
また、こうも書かれています。「Slackのプラットフォーム上で構築されます。」
Slackのプラットフォーム上で構築、というのはSlack App Directory(いわゆるSlack向けアプリストア)で展開されるという意味です。
ここに展開されると、管理者がインストールをブロックしない限り、ユーザーはSlackの「Appを追加」から追加できることを意味します。
ただし、そこに追加されるアプリは、Slack社がAppディレクトリ契約に基づいてチェック済みのものしか展開されません。

現時点でいくつかChatGPTもといOpenAI APIを用いたChatGPTのSlackアプリが展開されていますが、App DirectoryにないアプリはSlack社によるレビューを受けていないため、安全性も担保できていません。

このように、「公式」以外が出しているサードパーティアプリは、今までのソフトウェア同様、企業で使う上ではセキュリティチェックは欠かせませんし、法的責務の観点から、開発元と正しく契約したうえで利用することが求められます。

イラスト系は著作権等に注意が必要

昔からイラストは模倣だトレースだという話が尽きませんが、例えば音楽を聴いていて「あれ?このフレーズめちゃくちゃ聞き覚えあるな」と思うことがあって、作曲者が音楽の道に進むきっかけのアーティストの曲によく使われるフレーズだった場合、それはトレースと言えるでしょうか?
そういったように「同じ道を歩いてきた人が、遅かれ早かれ似たようなものを出す」という点において、裁判が起きても論点が問われます。
トレースなどを騒ぐ際には著作権や映像のライセンスなどが争点になるため、チューニングに用いた画像に対し権利がクリアになっていないものが含まれていると、そのモデルを商用利用した場合、著作権侵害などに問われる可能性が出てきます。
そのため、画像編集ソフトで有名なAdobeはFireflyという生成AIを公開した際に、そのあたりを強調しています。

商用利用可能なモデルなどについては作成者がGitHubで記述したりしているので、そのあたりをよく読んでから利用する必要があります。

プログラミングも同様

プログラミングでいえば、以前にGitHub Copilotという入力補助機能がリリースされましたが、既にChatGPTをベースにしたGitHub Copilot Xがベータリリースされています。

これらも結局のところ、そのまま利用するにはコードの真偽・正確性は不確かなので、それらを分かっているためか最初から「入力支援」をしたうえで「テスト不十分の警告を出す」といった機能を持ち合わせています。
提案されたプログラムが大方正しく、問題なく動作するにしても、最終的にそれの良しあし、利用是非を決めるのは「人」となります。

つまりは

企業で利用するうえで重要なのは、ここまで述べたように「AI技術そのものの理解」よりは「企業として利用するにあたって、自社のサービスに合わせて適切な法や責任が明確化されているか」といった法務観点の基準をクリアしていることが大事です。
次いで、学習による情報漏洩リスクや、それらを一律で防ぐために業務のスピードを下げてでも使わせなくするや、制限を設ける、といった「技術によるブロック」や、「教育やワークフローでの制限」を用意する必要があります。

今後のAIはどうなっていくか

人はそう簡単に成長できない

まず、OpenAI社の提供するChatGPTは今は4ですが、もちろん5や6も準備できているでしょう、そしてそれらがリリースされたとき、また人は振り回されることになり、そのフラストレーションがたまり続けると世間からOpenAI社に対して「世の中を試している」「人の意識を扇動している」といった倫理攻撃が始まることが予想されます。
技術とは全く関係なく、社会活動がある以上、一定数そういうことが起こりうるのは産業革命やルネッサンス以前、古代ローマなどからなんら変わりません。
また、スマホが当たり前になった今でもスマホを使いこなせているか?というとそうではないように「技術が分からない」人は一定数いるのと同様に、生成AIを使って何を出来る人、はまだまだ一握りである、といえるので、焦る必要もありません。

技術は否応なく進歩する

シンギュラリティ(技術的特異点)は2045年に来る、と予想されていますが、もしその予想の確度が非常に高いものだった場合、まだまだより激しい奔流が訪れることが予想されます。
上記で「法務観点」の話をかなり深くしたつもりですが、AI自体の是非ではなくそこに重きを置いた理由が、やはり「技術への適応」ではなく、「社会にどう取り込まれるか」が先にくるからであり、それらが企業という組織を回すうえで考えるべきことなのだと思います。

さいごに

この進歩の中で改めて「AIに仕事は奪われるか」というよくある話題について。
ChatGPTは調べることを加速させること、GitHub Copilot Xは入力補助をしてくれること、イラスト系AIは絵を「ざっくり」描いてくれること、といったように、「人の支援」はできますが、何度も述べているように最終的にそれを使う使わないを判断するのは「人」です。
イラスト系で絵師さんが立場を危ぶんでイラスト系AIをかじっている方も観ますが、やはり本人も触ってみて「ああ、細かな部分が破綻している」「どれも似通ったりで"人の独創性・画風"といった特徴は中々出せない」「アイデアがないと作れないのは変わらない」となっています。
「絵」は出せるけど「作品」となるには「人」という要素が入るわけです。
ましてや物理の作業はAIではできません。Boston Dynamicsの二足歩行ロボもかなり柔軟な動きをしますが、「現場の状況に合わせて」柔軟に対応できるわけではないので、こちらもAIが発展しても奪われません。
AIを研究・開発している人自身が「より高度なAIを作っていく上で、人の未知の部分に改めて気づかされる」というように、まだまだ研究段階で、AIがあらかたのことはやってくれる、という時代は先の話です。

さて、この文はChatGPTが書きました。
なんて言ったらどう思いますか?
安心してください、手で書いてます。今のChatGPTにこんな感覚的でミクロマクロ両視点から見た分析・書き方はできません。

ちなみにChatGPTに記事を書いてもらいました。

ChatGPTとStableDiffusionを企業で使う上での注意点をまとめてください。 タイトルと説明、といった形で、見出し文で書いてください。
---
タイトル: ChatGPTとStableDiffusionを企業で利用する際の注意点

説明: ChatGPTやStableDiffusionなどの人工知能技術を企業で活用することで、顧客サポートやマーケティング、製品開発などの分野で業務効率化やコスト削減、さらにはビジネスの成長につなげることができます。しかし、これらの技術を導入する際には、以下のような注意点があります。

データセキュリティの確保
ChatGPTやStableDiffusionなどの技術は、大量のデータを学習することによって高い精度を発揮します。そのため、企業が保有する顧客情報や機密情報などのデータを利用することが必要となりますが、これらの情報を適切に保護するためのセキュリティ対策が重要です。

品質管理の徹底
ChatGPTやStableDiffusionなどの技術は、学習に使用するデータや、学習アルゴリズム、ハイパーパラメータの設定などによって精度が左右されます。そのため、正確な学習データの選択や、適切な学習アルゴリズムの選択、ハイパーパラメータの調整など、品質管理の徹底が必要です。

アルゴリズムの解釈と説明
ChatGPTやStableDiffusionなどの技術は、人工知能が自律的に行うため、アルゴリズムの理解や説明が困難な場合があります。企業は、技術の運用にあたって、アルゴリズムの解釈や説明を行うことで、利用者の理解を深め、適切な利用を促進する必要があります。

誤解や偏見への対応
ChatGPTやStableDiffusionなどの技術は、誤解や偏見を招く可能性があります。例えば、言語モデルが人間と同様に文章を生成するため、悪意ある利用によるフェイクニュースの拡散などが懸念されます。企業は、こうした問題に対して、適切な情報公開や、利用ルールの明確化などによって、誤解や偏見を払拭する対応が必要です。

人材の育成と継続的な改善
ChatGPTやStableDiffusionなどの技術を企業で活用するためには、適切な人材の育成が必要です。導入段階では、技術を理解し、運用できる人材の確保が必要です。また、技術の改善や精度の向上を図るためには、技術的なスキルや知識がある人材の育成が不可欠です。そのため、企業は人材育成の体制を整備し、継続的な技術改善に取り組む必要があります。

以上が、ChatGPTやStableDiffusionなどの人工知能技術を企業で活用する際に考慮すべき注意点です。これらの技術を導入することで、企業の業務効率化やコスト削減、ビジネスの成長につなげることができますが、適切な対応が必要です。

ChatGPT

noteもAIアシスタント機能が出てくるみたいですね。
どうなるか楽しみです。


この記事が気に入ったらサポートをしてみませんか?