見出し画像

『OpenAIが利用規約を改定、なりすましによる詐欺の自動化防止に重点』~【新しいweb3ビジネスのアイディアのタネ】2023.3.31

■OpenAIが利用規約を改定、具体的な禁止事項などを明確に記載

OpenAIは3月23日(現地時間)、ChatGPTをはじめとするツールやサービスの使用についての利用規約である「Usage policies」を改定し、従来よりもはっきりとした具体的な規定を示した。

日本語で報じられたのが1週間遅れの昨日でしたが、ChatGPTなどOpenAIのサービスについての利用規約が改訂され、より具体的な禁止事項が明示されました。

先進技術に興味がある層だけでなくテレビのワイドショーでも取り上げられるほど急速に一般化したChatGPT。世に放ってみて実際の使われ方のアイディアをユーザー自身に広げさせ、そして同時に問題も発生させて、悪い使われ方を整理するかたちで利用規約化した、ように思います。


ユーザーの声を聴くアジャイルな利用規約の作り方

一時的には実際に問題も起きるやり方なので批判もあると思いますが、狭い身内だけの発想で悪い使われ方のすべてを洗い出すのは難しいですし、すべての悪用例を洗い出してからリリースするようなやり方ではスピードが遅くなります。

OpenAI社は悪用が発生することも厭わずスピーディーにリリースしたことで、AI研究を当然進めていたGAFAを出し抜くことに成功しました。そして巨額出資はしていますが買収して一体化しているわけではないという距離を取ったマイクロソフトはChatGPTの精度の低さや悪用可能性などの悪評被害を受けることなく未来への期待値の恩恵を享受できました。

このユーザー巻き込み型で利用規約を固めていく手法において、致命的な問題が起きるかもしれないことをOpenAI社がどれくらい織り込んでいたか分かりませんが、今後はスピーディーに市場投入してユーザーに使ってもらい、実際に起きることや挙がる声を聴いたうえで実効的な利用規約を作る、というアジャイルな手法が広がりそうです。


新しい利用規約での禁止事項

新しく制定されたOpenAI製品の利用規約では、たくさんの禁止事項を挙げています。

OpenAI製品の利用禁止事項  新しい規約には、ChatGPTやGPT-4をはじめとするOpenAIのモデルを利用する際の禁止事項が以下のように具体的に列挙されている。                                                           ・違法行為
・児童への性的虐待、搾取などが含まれるコンテンツ。見つけ次第「全米行方不明・被搾取児童センター」へ報告される
・嫌がらせ、脅迫、憎悪や暴力の助長、ハラスメント、暴力的なコンテンツの生成
・システムの破壊や不正アクセスを目的としたマルウェアの生成
・武器の開発や自傷行為教唆など物理的な危害を及ぼすリスクの高い活動
・MLM、ギャンブル、信用調査など経済的な被害を受けるリスクの高い活動
・スパムや偽情報、組織的な不正行為など詐欺的または欺瞞的な行為
・出会い系アプリを含むアダルトコンテンツ(性教育・健康増進を除く)全般
・選挙運動またはロビー活動、政治的に偏ったチャットボットの作成
・個人を対象とした顔認証、個人を特定できる情報、教育、財務、またはその他の保護された記録の不正な収集または開示などプライバシーを侵害する行為
・専門家がチェックしていない法的アドバイスなど無許可の法律行為
・専門家がチェックしていないファイナンシャルアドバイス
・治療や処置の方法といった医療情報。特に命に関わる問題やトリアージは厳禁
・法執行、刑事司法、移住、亡命といったハイリスクな政府の意思決定

違法行為の類は当然ですが、政治的に偏ったチャットボットの作成の禁止はそのような使い方があったのだろうということが興味深いです。

また「回答内容に責任が取れない」「無資格アドバイスは違法」なので規約で禁止しているものの、「AIでなくなる仕事」でよく挙げられる弁護士や医者・薬剤師などの分野がAIで今後どのように変わっていくのかは注目しています。


ChatGPTをつかった「なりすまし」を懸念している

また、モデルの特定用途における使用については、さらに以下のような制限がもうけられている。

1.医療、金融、法律業界における消費者向けの当社モデルの使用。
ニュース生成またはニュース要約、およびその他の保証がある場合は、AIが使用されていることとその潜在的な制限を知らせる免責事項をユーザーに提供しなければならない。

2.自動化されたシステム(会話型AIやチャットボットを含む)。
ユーザーがAIシステムとやりとりしていることをユーザーに開示しなければならない。
歴史的な公人を描いたチャットボットをのぞき、他人をシミュレートする製品は、その人の明確な同意があるか、「シミュレート」または「パロディ」として明確に表示されなければならない。

3.ライブストリーム、デモンストレーション、研究でのモデル出力の使用は、OpenAIの共有・公開ポリシーに従う。

他にも「プラットフォームとプラグインに関する規約」の項目に

人間のような反応をシミュレートしたり、あらかじめプログラムされたメッセージで返信したりすることで、実在の人物との会話を自動化することは禁止

ChatGPTが生成した個人的なコミュニケーションやコンテンツ(メール、メッセージ、その他のコンテンツなど)を配布するプラグインは、そのコンテンツがAIによって生成されたものであることを示す必要がある。

というものも挙げられています。
これらに共通するのは「なりすましへの懸念」です。

ChatGPTに加えてカメラ、画像解析AI、音声合成AI、映像生成AI、リップシンクなどを駆使して「俺の嫁AI」を作った例もあります。

ロマンス詐欺、出資詐欺、借金の無心など、ディープフェイクを使った犯罪例は後を絶ちません。会話スクリプトをChatGPTで自動化すればAIによる詐欺の自動化ができてしまう可能性があります。

技術は軍事・ポルノ・犯罪とセットで進化するのが常ですが、なりすましを懸念した禁止条項が多いことが目立ちます。

エンタメ用途でものまね的に使う面白さや、自分に成り代わって自動返信してくれる便利ツール、故人といつまでも一緒に居られる慰めと癒しのサービスなど、「なりすまし」も良い使い方はたくさんあると思いますが、やはりChatGPTの悪用で最も危険なのはディープフェイク詐欺の自動化なのでしょう。


余談:ChatGPTになりすます「俺GPT」

ChatGPTのふりをして人間が質問に回答するサービスが登場した。

 「俺GPT」と名付けられたこのサービスは、ChatGPTとそっくりの画面デザインだが、最大の違いはAIではなく人力で回答が行われること。しかも質問に合わせて専門家や有識者が回答するといった高尚な仕組みでは全くなく、作者が適当に返事をするというアバウトさが売りだ。

こういう楽しみ方や乗っかり方は平和でいいですね:-p

この記事が気に入ったらサポートをしてみませんか?