生成系AIで 問われるモノとは...

【生成系AI】

最近、chatGPTに関するモノを よく見るようになったし、電車に載っていると「俺、chatGPT利用しているんだよ」と嬉しそうに言っている学生がいた。

彼の利用は、ある意味とっても高度で、今のAIでは処理ができないモノだった。何せ、自分は日本史は大の苦手で、今回 宿題で ある歴史的出来事に関しての100文字にまとめて提出しろ!というモノに、答えさせるものだった。それらしい回答が来たみたいなのだが、日本史を全然理解していない自分が こんなのを載せたら、自分で宿題をしていないことがバレるから、自分のレベルに合わせた回答をしろ!と再…再々設問したらしいのだが、どの回答文も 読んでも意味がわからないから、ダメだったとのこと。使えないヤツ!と電車の中で 彼に断言されていた。
ニヤけてしまっていた自分が居たので、 マスクをしていて良かったぁ!と思った。

文章生成系AIの言語モデルだけでも、Megatron-Turing NLG や bing があり  亜種として google-BARDなどがある。
画像生成系AIは、adobeのfireflyや controlNetを使えるLeordoAi や 更に操作環境を選ばないStable Diffusionなどもあり、言語バリアが少なければ 結構自由に自分の思うものが作成できそうである。
それでも、多くの範囲で ? が まだまだ付く成果物品質なのが現状だろう。

では、それを上手く 我々は使いこなせるのだろうか?
使いこなすために、先に得ていないと拙いコトって何だろうか!

【情報リテラシって何?】

それは、"情報リテラシ" だと私は考える。
ここで挙げる"情報リテラシ"は、日本では しばしば混同されるワード"ITリテラシ"と同等に使われるワードとは違うもので、初めて このワードを作って広めた米国情報産業協会会長;ポール・ザコウスキ氏が提唱した内容の方である。つまり、元々の意味ということであり、図書館などのライブラリ情報の活用を進めていくために誰しもが必要なスキルであり、それを教育・啓蒙すべきであるとした概念である。
"情報リテラシ(Information Literacy)"という言葉が生まれて半世紀 経つが、一向に日本語が当てはまらない。Telephone を「電話」と 見事に的を得た漢字を当てていて、昔の日本人の凄さを このカタカナ放置ぶりをみても感じてしまう。literacyの元の意味には 「識字(能力)」という漢字が当てられる様に、読み書きの文字認識能力という意味があった。学習の基礎と成すモノ。

それが拡大解釈され、"情報リテラシ"では
  ①欲しい情報を収集〜得る(能力),
  ②得た情報の確度/真偽の程などを見極める(能力),
  ③その後に、その情報を活用する(能力)
この3つの事ができる能力の有無〜高さを言うようになった。

何故 日本では この情報リテラシという言葉が 知られていないのだろうか?
義務教育の現場で、現代で生活していく上で基本的な事柄として 例えば…. セックスとか 暴力とか… お金の使い方! などを ちゃんと教えてきていないからだ。

【生成系AI利用なら より高い情報リテラシがいる】

もしかしたら、そんなリテラシなんて、生成系AIが持っていれば その成果物を利用する側が持つ必要はないのでは?と思った方がおられるかな!?
最初の学生のchatGPTへの設問で、設問者のこの件に関する能力や語彙力などを瞬時に理解し 彼に相応しい 情報活用程度で回答文を作成することができるまでにAIが成長していれば、もしかすると 利用者は情報リテラシが必要ないのかもしれません。でも それはAIに技術的特異点(シンギラリティ)があった後のことだと思うし、もしそうなってら より一層 高度なリテラシ②の能力が必要になっているのだと思う。

googleの検索を便利だといって使っていた時は、自分の語彙力や言葉選定能力に苛立ちながら、情報リテラシ①を磨いていた気がする。
そして、検索結果の中から、これは 自分の欲しい情報ではない!とか 自分の見解と違う意見が載っている記事だ!とか …、それなりに結果を読み込むことで、情報リテラシ②を培っていたようにおもう。

そうすることで、自分の中にある確証バイアスに気がついたり、辻褄の合っていないロジックに気がついたりしてきた気がする。
だからこそ、chatGPTなどという新しいツールが出てきても、その今の実力は!?と把握できるような気がするし、その使い方が それららしくできる気がするんだ。
(ここまでの文章を載せて、コピーをもらった…悔しいけど私が思いつかないレベルの出来だった。あまりにも悔しいし、自分らしく良かったので 私は 結局 自分で考えてのを見出しにしている 笑)

で、そもそも文章生成系AIって、どのように情報収集し、整理/優先つけをしているの?を調べてみた。chartGPTでは 直近の情報は収集範囲から外しているらしく、他のは 組み込んでいる様子だ。最新の情報の中には 誤った情報や間違った使い方をしているものが多くあるため、スタンスが異なるのだろう。
で、その収集した情報の中には矛盾したものというか 時には正反対のことを述べているモノもあるだろう!その整理/優先付けは、頻度と表現というか語並びの類似性をみているようだ。つまり、似たような表現の文章が多ければ、それがベースになって文章が生成されるということになる。
goo辞書のようなものを一切ベースに置かなかったら、語彙の使い方が変なものが多かったら、間違ったまま 回答されることになる。
本当か!?と思って、、、トライ。
自分が数十回試した中で、一番 本来の語彙ではない使い方をした事例を紹介する。

Q. 広島風のお好み焼きの生地の厚みって、2mm程度だよ。関西風の生地を言うのは難しいけど  小麦粉が混ざった部分を言うのなら20mmの生地の厚みになるよね。
A.→ はい、広島風お好み焼きは、関西風お好み焼きよりも生地が厚いです。広島風お好み焼きは、生地を重ねて焼くため、生地が厚くなります。関西風お好み焼きは、生地を混ぜながら焼くため、生地が薄くなります。
広島風お好み焼きの生地の厚さは、2mm程度です。関西風お好み焼きについては、生地を混ぜながら焼くため、生地の厚さを測ることが難しいです。しかし、小麦粉が混ざった部分の厚さを測ると、20mm程度になります。
広島風お好み焼きと関西風お好み焼きの生地の厚さの違いは、お好み焼きの味にも影響を与えます。広島風お好み焼きは、生地が厚いため、キャベツの甘みや豚肉の旨味がよく感じられます。関西風お好み焼きは、生地が薄いため、サッパリとした味わいです。

思わず、生地...というワードを調べた。
Wikipadiaに載っているものは、
 "食品材料としての生地(きじ)とは、穀物や豆から作られた穀粉など澱粉を
 主体とする食材に、水および必要に応じて他の材料を加え混合して作られる
 ペーストで、加熱して食用に供されるものの総称"
で、Delish Kitchinのサイトで見ると、生地を焼く!と出てくるシーンがあり その焼けた部分の厚みが生地の厚みだとすると、どう見ても、広島のは 2mm程度で 関西のは20mm程度。


しかも、最初の1文の内容を主張するのなら、回答の最初の言葉は、"いいえ、"でしょ。
1段落目と2段落目の矛盾を両立させるとなると、"生地"の定義が 2種類あることになる。
1段落目でいう"生地"は 出来上がった料理そのものの厚みであり、広島のお好み焼きに 複数の生地があることになる(ないよーぉ)。
出来上がったお好み焼きの厚みは、広島のは30〜50mmと厚く 関西のは あって30mm程度。
2段目で用いている"生地"はwikipediaにも載っているものと同一と考えられ、納得。私の問いに対して、"はい"ということになる。
3段目の文章で出てくる"生地"は、多分 1段目と同じなのだろう。
ここでは、面倒なので 味わい に関しては触れないことにする(笑)

殆どの私からの設問に対し、そこそこのレスポンスで、ここまでの語彙使いの間違いの無いものが ほとんどであった。だから、リテラシ②と③が必須になる。
chartGPTでは 他の言語モデルAIより 彼による造単語/ワードが多く登場するように思う。しかも、あまり吟味もせず  これは何だ?と尋ねると言葉とは反対の解説だったりして、その後に順を追ってロジックで尋ねると 悪びれもせず …紛らわしいことを言ってしまったんだね!と取り繕おうとする。この辺も アメリカ的なスタンスだなぁ!と感じる。

【AI生成物で被害が出たら 何が〜誰が責任をとる?】

こんな設問もしてみた。
「完全自動運転において、責任の所在を考えざるを得ない事故が起こった場合、誰または何に責任があるの? それは法的にとえるのか?」
これに対する回答要約は「今の法律は 人に責任があるとした考えがベースのため、自動車関連の交通事故では運転手や製造者が その責任を問われることが多い。そのため、人に責任がないような状況の場合、その責任をとう対象がない。法整備や保険などの大幅な見直しが必要といわれている…」という凄く中立的に真っ当な回答を返してきた。
その一方で、笑えるのは、「ビジネス返信の内容をここで作成してもらったものを載せて、相手に返信したら ビジネス損害を被った。責任をとってくれる」と問いと「自分たちは生成したもので、ビジネス損害をがあっても 当方は一切責任を取らない」とキッパリと突っ張り返す短文の定型文が返ってきた。

以前、セクハラやパワハラというワードが席巻した時、"私 ハラスメント受けました"と訴えがあったら、世間の目を気にする余りに あまり吟味もされないで厳しい処分を即していたように思う。今は この件で その 見せしめ 案件を探している状況になっているように思う。
火中の栗を拾わないように、ここぞ!というシーンでは地頭で考えるために 自分の情報リテラシを見つめ直し、鍛えてみてはいかがでしょうか!そのために、chatGPTを活用するのは 全然 ありだと思う。