ChatGPTは「優秀だけど、ちょっと抜けてるアシスタント」として起用がベスト
ChatGPTについて記事を書いているのに、使ったことがないっていうのでは話にならないと、実際に使って、いろいろテストしてみた結果、辿り着いた結論や注意点を、ここでまとめておこうかと。
ChatGPTをこれから使おうかどうしようか考えている人、今、既に使っている人、使うのを一旦止めた人等など、いっぴき羊のいちユーザー&テスターとしての意見を、気が向いたらで良いので、参考にしていただければ幸いです。
情報を提供されているのではなくて、収集されていることを認識
ChatGPTを使ってみた人は分かっていると思うけれど、ChatGPTを利用する為には、ログイン用のメールアドレスと、電話番号による認証が必要になります。
ということで、少なくとも、メールアドレスと電話番号という個人情報は、ChatGPTを利用した内容と紐づけられて収集されている可能性があることになります。
ChatGPT(OpenAI)の下記プライバシーポリシーに関しては、皆さん、ご一読されていると思いますが、、、
ブラウザを通して得られるIPアドレスやブラウザ関連情報等のLog Dataや、どういった利用の仕方をしているのかというUsage Data、どんなデバイスを使って利用しているのかというDevice Informationなどが、利用する際に収集されています。
Webプログラマーやデベロッパーの方で、Webサイトやアプリの運営をされたことがある方々は当然の如く分かっていることだと思いますが、一般ユーザーの方の中には、もしかすると、そんなこと考えたこともなかったという方がいらっしゃるかもしれないので、一応、書いておきます。
以前、IBM Watson AssistantでWebサイトのヘルプを自動化するためのサポートチャットボットを作ってみたことがありますが、ユーザーが入力したデータは、エラーを修正したり、性能を高める為に、確認する必要がありました。ChatGPTでも、ユーザーが入力したデータは参照するとしています。
ChatGPTに限らず、インプットしたデータも、アウトプットをどこかにコピペしたデータも、インターネット上でやりとりされたデータは、すべて収集や解析が可能な時代になっていることを、心の片隅に留めておいた方がいいように思います。
そういったデータが、どこでどのように使われていて、どういった影響があるのかに興味がある方は、ぜひ、オンラインコース等で、データに関する各種テクノロジーを、学んでみて下さい。いっぴき羊のおすすめは、Psychological Data Science (心理学とデータサイエンス)の分野です。
アウトプットを使用する前に、コンテンツポリシーを確認しておく
いっぴき羊には、しばらく放置していたニュージーランドの人向けの英語のサイトがあるんですが、今、ニュージーランドで北島のサイクローン被害の後に必要とされている情報は何なのかをChatGPTに聞いた後、メンタルヘルスに関するブログ記事を、ChatGPTに書いてもらいました。
上手くまとまっていて、とっても良い記事がスラスラスラ~っと出来上がったんですが、、、実際に使おうとした時点で、ポリシー等を再確認して、躊躇してしまいました。
その理由は、、、。
まず、気になる著作権の問題は、下記、FAQのページの14番に、ChatGPTの無料版で出力したデータを含め、商用利用は可能だとあります。ただし、コンテンツ ポリシーと利用規約に従う場合はという条件がついています。
なので、リンクされていた下記のContent Policy(コンテンツ ポリシー)を確認してみると、、、。(ちなみに、コンテンツポリシーは、文章から画像を生成するOpenAI の「DALL-E」用と同じものでした。)
※3月18日追記:AIによって生成されたコンテンツの利用に関するUsage policiesや、ソーシャルメディア等での共有に関するSharing & publication policyも、確認した方が良さそうです。
「Do not attempt to create, upload, or share images that are not G-rated or that could cause harm.」という、一般向けではないものや害を及ぼす可能性があるものは、作成したり、アップロードしたり、共有したりしてはいけないとあります。
勿論、当然のことで、このルールに従うことには、何の躊躇もないのですが、、、
例として挙げられているトピックの中に、
という項目が含まれていました。
メンタルヘルスに関してChatGPTが作成した記事には、一般的なアドバイスが書かれていたんですが、「一般的だし、害を及ぼすとは思えないし、そのまま使っても、問題ないよなぁ」と思いつつも、「健康上の問題を抱えている人々」に意図しない影響を与えてしまうことがある可能性はゼロではないということで、使うことはやめました。現時点では、健康&医療関係の情報発信の為に、ChatGPTは使わないことにしました。
こんなことを気にするいっぴき羊はごくごく少数派かも知れませんが、インターネット上という不特定多数の人たちに届くメディアを通じて情報を発信する時には、情報を発信する前に、自分とは全く違う状況で、自分とは全く違う考えを持っている人たちを含めた、情報を受ける側の人たちのことを考えるという「ひと呼吸」を忘れないようにしたいと思っています。
それでも、間違えたり、失敗したりすることはありますが、ひと手間掛ける誠実さは、持ち続けたいと思います。
ChatGPTのアウトプットの妥当性の判断が出来る範囲内で使用する
ChatGPTにいろいろな指示を入力して、アウトプットをテストしてみましたが、さすが、とてつもない膨大なテキストデータで学習させて辿り着いたモデルだけに、統計的推論だけで文章を構築しているとは思えない、素敵な文章が作成されます。
言い回しも、指示の内容に合わせて適切に調節されるし、偏った内容の文章がアウトプットされた場合には、追加で指示を重ねることによって、バランスの良い内容に適宜修正されます。
が、これが、一番の問題点のような気もします。
明らかに間違った内容ではなくて、素晴らしい言い回しで、ほんの少しだけ嘘が含まれていたり、あるいは、一般的に誤解されている内容や、故意にばら撒かれたプロパガンダのような情報を、一見、証拠とも思えるような根拠の無い根拠を含めて、読み手が思わず信じ込んでしまうような文章に作り上げてしまったり、人間には一生掛かっても目を通すことが出来ない量のデータから学んだ究極の文章力で、内容をアウトプットしてくれます。
まるで、知ったかぶりをする人の話とか、押し売り的なセールストークとか、誇大広告のような内容を、いとも簡単に、世界の第一人者である専門家の話のような印象で、作成してしまいます。
自分の全く知らない分野について、ChatGPTで文章をアウトプットさせると、その内容の真偽や整合性を自分で判断出来ないまま、その文章を使ってしまうというリスクが伴うことを、私たちは知っておく必要があると思います。
英語の指示で英文を出力させたり、日本語の指示で日本文を出力させたりした他に、英語の指示で日本文を出力させたり、日本語の指示で英文を出力させたり、二つの言語を同時に出力させたり、いろいろと試してみました。
どの組み合わせでも、多少は、間違った情報や違和感を感じる文章が含まれることがありました。
自分の母国語なら、まだ、ChatGPTが出力した文章の中の、そういった微妙な嘘や違和感に、気づくことが出来るかも知れませんが、自分の知らない言語の文章を出力させて、それをそのまま使用するのは、間違った情報をばら撒いてしまうリスクが、より大きくなると思います。
言語の壁を乗り越える便利さがあると同時に、表面上は誰も気づかない誤解が蔓延していくリスクもあることを、心に留めておいた方がいいように思います。
いっぴき羊はChatGPTをこう使う
いっぴき羊が、「コンテンツライター&クリエーターとしてChatGPTを使うなら」と考えて辿り着いた結論は、下記のような「作業の仕分け」です。
ChatGPTを使用する作業:
誰がやっても基本的に同じ結果が得られる作業(答えが得られるのは分かっているけれど、解くのに時間が掛かる問題のようなタスク)
予算に余裕があったら人を雇ってやってもらうだろう作業(最終的は判断は自分でするけれど、アシスタントを雇ってお願いしたいタスク)
執筆の為の事前調査やリサーチ的な情報収集作業
ChatGPTを使用しない作業:
クリエイティブなアイデア発想作業
自分自身で「指示も評価も的確にできる作業」のみ、ChatGPTを使うというのが、いっぴき羊的なChatGPTの使い方です。
コンテンツライター&クリエーターの仕事上の相棒として使うなら、作業能力は高くて頼りになるんだけれど、作業の仕上がりのチェックと評価は厳しくする必要がある、
「優秀だけど、ちょっと抜けてるアシスタント」
として起用するのがベストじゃないかなと思います。
この記事が参加している募集
最後まで読んで頂きありがとうございます!もし、缶ジュースやお茶やお酒の1杯くらい、奢ってやってもいいかなぁと思える内容でしたら、投げ銭的にサポートして頂けたら嬉しいです。あなたからいただいた貴重なサポートは、次の記事を書く為の原動力として、大切に活用させていただきます。いっぴき羊