【人に厳しく、AIに優しく?】


「ChatGPTでこんなことできたよ!」
といろんなところから聞こえてきます。
ほかにも、画像生成AIなど、
AI技術を使ったサービスがどんどん出てきます。

それはそれで素晴らしいのですが、
僕が感じる違和感は、

「みなさん、AIにはとてもわかりやすく
業務指示を出すのに、
人間には何の遠慮もなく丸投げ、
テキトー指示をするんですね。」

ということです。

だって、ChatGPTなんて、
45TBのデータを学習してるんですよ。
1ページ2キロバイト換算で
4兆4,500億ページ分の書物を事前学習した
化け物みたいなAIに
わかりやすく業務指示出したら、
そりゃあ的確なこと答えますよ。
(もちろん間違えたりするけど)

しかも、AIが答えを出しやすいように
「プロンプトエンジニアリング」
なんてことを言い出して、
さらにわかりやすい指示を出そうと努力する。

それなのに、普通の人間には、
ざっくりとした指示を平気で出して、
思ってたのと違うものを提出したら、
「俺が欲しかったのはこういうのじゃない、
やり直し」とか突き返す。

膨大な知識を持ったAIには
答えやすいように優しく指示を出し、
限られた知識しかない人間には
大雑把な指示を出してやり直させる。

もちろん、大雑把な指示を噛み砕いて、
色々な人に確認をとりながら
仕事を進めていくことができるのが、
「できる人」だとは思いますが、
それができるようになるまでの
Pre-trained 状態を作ることが必要。
(ChatGPTのGPTとは
Generative Pre-trained Transformerの略)

ChatGPTは確かにすごいんだけど、
なぜすごいのかについてもちょっと考えると、
人間の能力の伸ばし方にも
大きなヒントになる気がします。

これを機に、
人間に対するプロンプトエンジニアリングの
重要性にも光が当たるとよいのですが。


この記事が気に入ったらサポートをしてみませんか?