【ChatGPT活用術】便利な「3H」をまずは抑えよう 実例付き
ChatGPTの衝撃
ChatGPTはリリースから2ヶ月でアクティブユーザー数が1億人を超えました。ChatGPTの自社サービスへの活用を発表したnoteやBussFeedは200~400%も株価が伸び、ChatGPTの対抗製品を出して低い評価を受けたGoogleは約10%の株価の急落を引き起こしました。
この記事は、『AI時代のキャリア生存戦略』(https://amzn.to/3sJevNF)を執筆し、AIコンサルとして、アパレルやゼネコン企業(どちらも売上2兆円規模)のプロジェクトに携ってきた倉嶌が実際に感じたGood PointとBad Pointをまとめた記事です。
「Google検索の仕方が分からない」のと同じくらい、これからはAIの使いこなしが基礎スキルになり、使いこなす人と使えない人の間で生産性の格差が生まれ、広がると予想されます。
引き離される側にならないために、なんでも教えてくれるテキスト生成AIのChatGPTがどこまでできて、どこを注意すべきか、一足早く抑えてみてはいかがでしょうか?
3Hとは何か?
3Hとは、ChatGPTが活用できる下記三つの頭文字を取ったものです。
それぞれ簡単に説明すると、次のようになります。
自分が必要な部分ばかり使いがちですが、ダイエットのトレーニングメニューをChatGPTに考えてもらったり、インタビュー頂いたときに自分のプロフィールを指定された文字数に圧縮したり、無邪気に知らないことを聞いたりできます。
特に人間の調べるという行為がGoogleの誕生によって良くも悪くも変わってしまい、「人に聞く前にググれ」という慣習が自然とでき、「他の人に無邪気に聞く」という行為がし辛くなりましたが、再び無邪気に聞ける世界が戻ってきました。
ただし、聞く相手が人間ではなく、AIなのが意外なところです。
ChatGPT活用事例
次に面白い使い方をいくつか紹介していきましょう。
1.アイディア出しの例(想定ユーザー:セミナー講師)
調査やアイディア出し、書く作業時間を大幅に削減してくれます。
網羅的かつ論理的に筋の通った回答が1分程度でもらえるので、セミナーを開催する際、アジェンダの初案をサクッと作ってくれます。
例えば、ライター向けのセミナー商材の例は次の通り。
ぜひ自分の専門分野でセミナーを行う場合のアジェンダを聞いてみましょう。
2.問いを作らせる例(想定ユーザー:英語の先生・大学教授)
特定のワード数の英文を作れる特性を活かしてAIに文章を生成してもらい、理解度テストまで作ってもらうという使い方です。これがわずか40秒で出力されるという驚き。
ちなみに下記の理解度テストのあとに試してみたところ、穴埋め問題まで作ってくれました。
こういった「問いを考える作業」や、「間違いの選択肢を作る」作業は意外と脳内エネルギーと時間を要するので、ここをAIに任せ、人間は成果物をレビューしてブラッシュアップすることで、ちょっと面倒なルーティンワークから解放されます。
3.調査系の例(想定ユーザー:新規開発事業部・コンサルタント)
先行事例や市場調査のデスクトップリサーチをする際、Google検索だと、誰かが記事にまとめていない限り、ある1つの切り口で様々な企業の事例を収集することはできませんでした。
しかし、ChatGPTであれば、「○○業界の先行事例を教えて」と聞くだけで、まとめて教えてくれます。
しかし、大きな落とし穴もあるので注意が必要です。
次にChatGPTのBad PointとDangerous Pointを見ていきましょう。
これを抑えるか否かで信用問題を回避したり、効率的にAIから有益な情報を引き出すTipsを得ることができます。
ChatGPTのBad PointとDangerous Point
端的に言うと、分からないと言えないため、古い情報が最新事例のようにして貼ったり、本当を混ぜた嘘を言ったりするということです。
1.古い情報が入った例
例えば、先ほどの事例で出てきた二つ目の回答のMaersk。
実は、数ヶ月前にプロジェクトが終了しています。
そのことをAIに聞いてみると次のような回答が返ってきました。
AIは学習した時点を最新として、情報をストックするので、最先端領域で早いサイクルで情報が変化する領域では、古い情報が入る可能性が非常に高いので注意が必要です。
これは、最新の情報での学習する頻度を高めることで解決できますが、コストがかかるのと、全領域で最新情報をAIに学習させるのは難しいため、あなたが関わる領域で最新情報にアップデートされるかは分かりません。
どう改良されるにせよ、まずは裏どりが大事です。
2.本当を混ぜた嘘を言われた例
テスラがブロックチェーンの国際的な自動車の規格化コンソーシアムに入っているかを聞いた時の事例です。
確かに、マスクはツイッターでブロックチェーン絡みの発言もしていますし、テスラはビットコインへの投資はしていませんが、一時期ビットコインでの支払いを可能にしていました。
事実に近い嘘の入った情報なので、詳細を知らなければ、鵜呑みにしてしまうような内容です。
また、MOBIに関しては裏どりをしてみると嘘だったため、再び問いました。
使い方を間違えると嘘の情報をあなたが真実として発信してしまい信頼を失ってしまうので、裏どりをする癖を必ずつけましょう。
誰しもがChatGPTを使うようになるとGoogleが使われなくなるのでは?という意見もあります。
これを裏付けるように、Googleでは社内にCode Red(緊急事態)を発令し、AI部門のテコ入れにGoogle創業者のセルゲイ・ブリンが帰還するという慌てようです。ただし、まともにChatGPTを活用しようとするとたくさんの裏どりの検索が必要になるため、私の場合は調査系ということもありますが、今までの数倍程度検索するようになりました。
まだまだ、不安定なChatGPTですが、うまく使う方法をご紹介しましょう。
3.ChatGPTの欠点を補うTips集
回答してもらった後に、「今の回答は事実に基づいていますか?」とAIにセルフチェックさせる。先ほどのMOBIの例のように、リストを再確認して間違いを発見してくれることがあるので、1次チェックをしてもらいます。
次に自分でも二次チェックとして、ファクトチェックや文章チェック、生合成チェックを行います。間違っても出てきたものをそのまま横流しすることはやめましょう。
アイディア系で使う場合、例示してくれるのは3案ほどです。たくさんの事例が欲しい場合には、「例を10個出して」など、ブーストさせる聞き方をしましょう。
難しい単語や難しい論理構成で理解が難しい回答がAIから来た場合、「中学生にもわかるように教えて」とオーダーしましょう。噛み砕いた丁寧な解説をもらうことができます。
最後に、質問をする際、「ファクトベースで」「事実に基づいて」など、慎重にさせるような言葉を入れて質問をすると、回答の精度が上がります。
これを裏付けるような話もあります。
文章ではなく、数学の領域ですが、AIで有名な東大の松尾研の研究論文で“Let’s think step by step” を加えるだけでAIの回答精度が大幅に向上することが証明されており、AIに慎重な回答を促すことができる模様です。
この論文ではOpenAIの数学問題を解くMultiArith というAIで実験した際の精度の比較が報告されており、AIも人間のように慎重になることで回答の精度が上がるようなので、ぜひ覚えておき、おまじないと思って付け加えてみましょう。
最後に
最後までお読み頂きありがとうございました!
日々様々な種類のAIが誕生し進化していくAI時代に突入しました。
拙著『AI時代のキャリア生存戦略』では、この時代に推奨できる3つ戦略を解説しておりますので、ぜひチェックしてみてください!
https://amzn.to/3sJevNF
同じ時代を生きる者として、共にこの時代を愉しく泳ぎ切りましょう(^^)
もし宜しければサポートをお願いします! 支援いただいたサポートはクリエター活動に使わせて頂きます!