ChatGPTの元ネタが出所不詳じゃ、正当性は検証出来ない/引用元文献まで捏造するChatGPTは糞だ

【投稿者コメント】

【キーワード】

[数の判るお猿さん]、[賢いオウムさん]、[を有難がるのは猿以下]

【件名】

「ChatGPTの元ネタが出所不詳じゃ、正当性は検証出来ない/ChatGPTは、数の判るお猿さんや賢いオウムさんでっせ/こんな物をありがたがるのは、お猿さん以下でっせ/不審なブラックボックスは信用出来ない/引用元文献まで捏造するChatGPTは糞だ/有害無益なChatGPTは、Microsoftの終わりの先鞭なのか/偶然性と学びの機会を喪失させるAIチャットbotで情報にアクセスするのは危険だ」

【投稿本文】

 今、Microsoftが、IT知識・ITスキルに乏しい、一般のITユーザ向けに、ChatGPTの様な、「生成系AI」の長所・利便性のみを一方的に、喧伝・宣伝して、まるで、「ChatGPTは、IT分野を一新するバラ色のAI技術である!」かの様な、"印象操作"、"洗脳行為"をやらかしているのは、重大な犯罪行為だ!

 下記の報告を読んで、『深刻な、ChatGPTの危険性・有害性!』に目覚めて頂きたい!

【1】元ネタ不詳じゃ、答えの正当性は判らない/単なるブラックボックスのChatGPTは信用出来ない

 論文や報道記事やノンフィクションや報告書では、引用元の文献や取材元や引用元のコンテンツ等を明記する事が約束事になっているから、引用元や取材元を明かせない、明記出来ない場合は、単なるガサネタ・でっちあげ・フィクション・小説・戯言(ざれごと)・メモ書きに過ぎず、記録・保管対象の公式上の文書・書類・文献・書籍・図書・芸術作品には、決して、成り得ない!

 最近、盛んに、喧伝される「ChatGPT」の様な「生成系AI」に依る検索(「AIチャトbot」等)では、「収集→抽出→解析・最適化→テキスト化・画像化・音源化・動画化→書き出し」する過程では、決して、その収集・抽出元は、出力先の検索結果には含まれないから、いわば、つまみ食い・ええとこ取りの、「AIチャトbot」の様な、「生成系AI」に依る検索は、単なるガサネタ・でっちあげ・フィクション・小説・戯言(ざれごと)・メモ書きに過ぎない事になる!

 いくら、よく、まとまった、一見、まともと思える様な検索結果でも、その正当性や妥当性を検証・精査出来ない訳だから、いわば、事実に基づかない、単なる、戯言(ざれごと)・フィクション(虚言)にしか成り得ない!

 思考過程、結論に至った過程の正当性や妥当性をつぶさに、詳細に、検証・精査出来る、文書・書類・文献・書籍・図書や画像や動画や音源等のコンテンツ・データでない限り、決して、公式上の記録・保管コンテンツには成り得ない!

【2】ChatGPTは、もっともらしい嘘を付くから、犯罪にもってこい!/ユーザに混乱と犯罪被害を与えるだけ

 「ChatGPT」の様な「生成系AI」のアウトプットの用途は、せいぜい、虚構・フィクションが前提の、著作権無視の「漫画や漫才や落語や小説や脚本やギャグ・ジョーク」の元ネタくらいだろう!

 こんな、まやかし的な、いい加減な、ブラックボックスに過ぎない、嘘付き、CharGPTの様な、「生成系AI」の成果を喜ぶのは、
 精巧な「偽サイト」や「偽メール」を望むサイト犯罪者や
 画期的な偽論文や偽小説が欲しい、糞学者や糞小説家や
 嘘・洗脳で信者・信奉者を増やしたいカルト教祖や独裁者や
 偽ツィートで二度目の大統領に成りたいトランプだけで、
 「生成系AI」の成果の偽コンテンツに依って、
 一般の国民は、一方的に、被害を受けるだけだ!

 研究開発活動や創作活動や政治・宗教やIT・文書管理を惑わして、著作権を無視して、社会に混乱のみを与える様な、公序良俗を破壊する様な、CharGPTの様な、「生成系AI」は、研究開発に留め、具体的な製品化・サービス化や適用・応用は、法規制で禁止すべきだろう!

【3】ChatGPTの実態を報告するレポート

 下記の【以下転載】の報告を"深読みすれば"、『CharGPTの様な、「生成系AI」は、単に、社会生活を惑わすだけでなく、人類の思考過程や価値基準や知的活動にも悪影響を与え、人類の思考能力の退化さえをも、もたらす「危険物」である!』とも思えてくる!

◇◇◇ <<ChatGPTは、本来のAIとは、ほど遠い、単なる「オウム返しシステム」だ>>

 注目すべき記載箇所は、

『このメカニズムのおかげで知的な答えが返ってきている様に見えるが、実際は、大規模言語モデルのシステムは、ほぼオウム返しだ。真に質問を理解した上で答えている訳ではない。AIチャットbotの返答は、一見スマートに見えるが、実際は、AIがうまい事見つけてきた言葉・文章のパターンを反映した物に過ぎない。』

 であり、

 CharGPTの様な、「生成系AI」は、真に、AI的に、思考・プロセス進行した結果ではなくて、ネットにあふれているコンテンツを"学習"して、問いに、最もマッチングした、文章パターンを集約して、つまみ食い的に、ええとこ取り的に、書き出した物に過ぎず、いわば、"お利口さんのオウムさんを探してきただけ"に過ぎない!

 いわば、サーカスや午後のニュースショウ番組に、よく登場する、数の判るワンコやお猿さんや賢いオウムさんに過ぎないのをありがたがる馬鹿馬鹿しさ!

 こんな物を、"AI"なんぞと、よくも、云えたもんだ!

◇◇◇ <<ChatGPTは、単なる、"機械"学習システムなので、考えたりや斟酌はしない>>

 さらに、『その為、大規模言語モデルは、デマやファンタジーの様な答えを生成してしまう。堂々と嘘を付くのだ。ユーザが答えだと思っているのは、幻覚に過ぎない。又、聞かれている内容がそもそも誤った事を前提にしていても、それを見抜くほど賢くはなく、その結果、出て来る答えも間違ってしまう』とも云っている。

 そりゃ、そうだろう!

 "学習"対象のコンテンツをAI的判断・思考で斟酌(しんしゃく)・判断して、適合するものだけを収集するのではなく、単に、問いと"機械的に"、マッチングするものをかき集めたものに過ぎず、判断・思考と云うプロセスが全く、存在しないから、大間違いも起こすし、大嘘も付くし、間違った問いには、間違った答えを返すだけで、お馬鹿な猿、お馬鹿なオウムに過ぎない!

 まさに、お馬鹿な、"機械学習"の面目躍如と云うべきか!

◇◇◇ <<引用元まで捏造するとは、ChatGPTは、恐れいった"大嘘付き"だ>>

 更に、『例えば、引用文を用いて専門的な報告書を書けとChatGPTにリクエストすると、報告書は生成されるが、引用文まで生成されてしまっている事が多々ある。それっぽい論文タイトルと著者名を使った幻覚を見せられている。リクエストに応じた答えは出すが、それが正しいか否かは、ユーザに丸投げするので、ユーザに専門知識やよっぽどのモチベーションがない限り、真贋を見極めるのは困難だ。事実か否かを理解しないChatGPTにとって、自分の生成した文章は勿論、質問の内容が正しいかすらも判断は出来ない。』とも云っている。

 <<引用元まで捏造するとは、ChatGPTは、恐れいった"大嘘付き"だこと!>>

 まさに、嘘の整合性までも付けてくれると云うから、捏造論文や捏造小説を欲しい糞学者や糞小説家には、とても、ありがたい、ChatGPTではある!

◇◇◇ <<ChatGPTは、著作権やWebビジネスの機会を奪う>>

 さらに、『ChatGPTの学習対象に"無断で"使われた既存コンテンツの作者にとって、タダで、ええとこ取りされると云う事は、著作権無視の悪行・犯罪行為であり、既存の検索システムでは、引用元のURLとコンテンツ要約が表示されるが、ChatGPTでは、検索結果のみで、学習元のコンテンツのURLとコンテンツ要約は一切表示されず、学習元のサイトへの訪問・ヒットにつながらず、サイト活動の収益を圧迫してしまい、サイト活動を弱体化させる!』とも云っている。

◇◇◇ <<プロセス抜きのChatGPTは、人類の知的探究心や研究活動やビジネス活動を阻害する/重大な、誤回答や偏見や有害情報を生む事も/ChatGPTの信憑性を判断出来ないユーザが盲目的にChatGPTを信奉する危険がある>>

 加えて、『既存の検索過程が知的探究心に深みを与えて、さらなる研究テーマ発掘やビジネスチャンス拡大に寄与すると云う点は、検索と云う行動に於いて重要な要素だが、ChatGPTでは、システムがソースやプロセスを飛ばして結果だけを見せてしまうので、知的探究心を深めたり、研究開発やビジネスチャンスが拡大する可能性は、奪われてしまう』とも云っている。

 最後に、『他の情報アクセスシステムも誤った結果や偏見や有害情報を生むと云う問題はあるものの、ChatGPTの様な、大規模言語モデルは、透明性を欠く事が最も問題だ。さらに悪い事に、その自然な会話力に依って、無知なユーザは、悪い意味でシステムへの信頼感を高めて、権威すら感じる様になってしまう。』とも・・・

 <<ChatGPTの信憑性・正当性を斟酌・評価・裁定・判断する事が困難な、一般のユーザは、ChatGPTの有効性のみを一方的に喧伝・宣伝するMicrosoftの企業エゴを丸呑みして、ChatGPTを不用意に信奉しがちと云うから、Microsoftは、いわば、無責任な、犯罪者の、カルト教祖様に成り下がったと云うから、Microsoftも落ちたもんだ! ChatGPTは、Microsoftの終わりの先鞭なのか?!>>

【注】本稿で記載した、アプリ、ソフト、サービス、ハードウェア、URL、操作手順、記載内容の完全性・網羅性を保証するものではありません。使用・導入・採用は自己責任となります。

【以下転載】

https://www.gizmodo.jp/2023/03/chatgpt-openai-like-a-librarian.html
「偶然性と学びの機会の喪失、AIチャットbotで情報にアクセスすることの危うさ」
       Chirag Shah-Gizmodo US 原文 2023.03.23 20:00

Tags:AI(人工知能)、ChatGPT(ジェネレーティブAI)


添付図1_Photo: Shutterstock.com

ワシントン大学情報科学部のChirag Shah教授が語る、AI台頭による危うさとは・・・


 検索エンジンが一般的になる前、情報にアクセスするため調べ物をする時、最も頼りになったのは図書司書さんなど情報の専門家でした。彼らの存在は、対話式で、個人化されていて、透明性があり、かつ威厳も感じました。今日、ものを調べるときほとんどの人が利用するのが検索エンジンですが、数単語を入力して仕組みのわからないランキングで結果を表示されるのは理想的とはいえません。

■AIベースの情報アクセスシステムは最適解ではない?

 MicrosoftのBingとChatGPT、GoogleのBard、MetaのLLaMAなど、新時代のAIベースの情報アクセスシステムは、インプットやアウトプットの形を含め、従来の検索モデルをひっくり返す存在です。数単語ではなく文章を、ときに長文(段落)を取り込み、会話のような自然な言葉でユーザーひとりひとりのために答えをアウトプットしてくれます。

 最初は、これが最適解なのだと思いました。答えは個人向けにカスタマイズされているうえ、ネット上にある知識の幅と深さが備わっているわけですから。ただ、検索とレコメンデーションシステムを学ぶいち研究員として、最適なのはもっとミックスされたものだと思うようになったのです。

 ChatGPTやBardのようなAIシステムは、大規模言語モデルに基づいて構築されています。言語モデルは、WikipediaやPubMedなど公開されている大量のテキストデータを使ってパターンを学ぶマシンラーニング技術です。学んだことをもとに、与えられたワード・フレーズの次にどんな言葉がくるかを予想し、ユーザーのリクエストに応じた短い文章はもちろん、数段落もの長文を生成することもできます。3月14日、OpenAIは画像とテキストに対応したGPT-4も発表しました。

 大量のテキストでのトレーニングと適切な微調整、他のマシンラーニングベースの手法によって、この手の情報検索・入手技術は、非常に効果的に動きます。大規模言語モデルをもとにしたシステムは、リクエストに回答するためユーザー個人にカスタマイズされたアウトプットを生成します。そのアウトプットのレベルの高さに多くの人が感動した結果、1億ユーザー達成にかかった時間はTikTokのわずか1/3という急上昇ぶり。答えを探すだけでなく、健康状態を入力して病理診断したり、ダイエットの計画を作ったり、投資先をおすすめしてもらったりと、その使い方はすでに多岐にわたっています。

■ChatGPTの不透明さがみせる幻覚


添付図2_Photo: Shutterstock.com

 大規模言語モデルによるAIが素晴らしい一方で、マイナスの要素もあります。まず、大規模言語モデルの核となるもの、つまり言葉と言葉をつなぎ意味を持たせるメカニズムを考えてみましょう。

 このメカニズムのおかげで知的な答えが返ってきます。いや、返ってきているように見えます。が、実は大規模言語モデルのシステムってほぼオウム返しなんです。真に質問を理解した上で答えているわけではありません。つまり、AIチャットbotの返答は一見スマートに見えますが、実際はAIがうまいこと見つけてきた言葉・文章のパターンを反映したものに過ぎないのです。

 そのせいで、大規模言語モデルはデマやファンタジーのような答えを生成してしまうことがあるのです。堂々と嘘をつくと言われていますが、まさにその通り。ユーザーが答えだと思っているのは幻覚に過ぎないのです。また、聞かれている内容がそもそも誤ったことを前提にしていても、それを見抜くほどシステムは賢くなく、その結果生成する答えも間違ってしまうことも。例えば「100ドル札に印刷されている大統領は誰?」と質問したら、ChatGPTは「ベンジャミン・フランクリンです」と答えました。確かに、100ドル札はフランクリンですが、彼は大統領ではないので答えとしては正しいとはいえません。ひっかけ問題ですね。

 この手のシステムの答えは10%が間違っているのですが、どれがその10%に当たるのか、我々がそれをすぐに見抜くのは難しいことも問題です。見抜けないのは、システムに透明性がないから。どんなデータでトレーニングしているか、何を参考にし、どう答えを生成したのかがわからないので、ミスを見抜くのも難しくなってしまいます。

 例えば、引用文を用いて専門的な報告書を書けとChatGPTにリクエストした場合、報告書は生成されますが、引用文まで生成されてしまっていることが多々あります。それっぽい論文タイトルと著者名を使った幻覚を、我々は見せられているわけです。
リクエストに応じた答えは出すが、それが正しいかどうかはユーザーに丸投げするというのは、ユーザーに専門知識かよっぽどのモチベーションがないと困ってしまいます。事実か否かを理解しないChatGPTにとって、自分の生成した文章はもちろん、質問の内容が正しいかすらも判断はできないのです。

■コンテンツとトラフィックの搾取

 透明性のなさは、ユーザーにとっては有害であり、著者やアーティスト、クリエイターなど、システムがトレーニングのもとにしたオリジナルの作品を作った人たちにとってもフェアな行為とはいえません。AIチャットbotが持てはやされる中、その「賢さ」に自分が貢献したことすら知らされないわけですからね。もっというと、トレーニングデータに使用してもいいかと確認される機会すらなかったかもしれないわけで。

 経済的影響もあります。従来の検索エンジンの場合、検索結果はリンクとリンク先の情報がセットで表示されます。これは、ユーザーが検索結果とそのソースを確認しやすいだけでなく、それらのサイトへトラフィックを促すこともできます。検索結果からウェブサイトを訪れてもらうことで収益を出しているサイトもあります。

 一方、大規模言語モデルのシステムはその場で直接答えを出してくれるので、ソースとなるサイトを訪れる機会は減ってしまいます。結果、サイト側にとってはビジネスチャンスの損失となります。

■学びと偶然の産物の喪失

 最後に、この新たな情報へのアクセス手法は、人々から力と学びの機会を奪ってしまうかもしれません。従来の検索プロセスだと、必要な情報の幅をあれこれ探る余白があり、求めるものをうまいこと調整することができます。また、世界にはどんなものがあるのか、自分が求めるタスクをこなすのにさまざまな情報がどう結びついていくのかを学ぶチャンスがあります。さらに、偶然の出会いや産物が生まれることもあります。

 これは検索という行動において重要な要素なのですが、システムがソースやプロセスを飛ばして結果だけ見せてしまうことで、その可能性は奪われてしまうのです。

 大規模言語モデルは情報へのアクセス手段として大きなステップアップであり、自然言語ベースでのやりとりをユーザーに提供でき、個人に特化した答えを返し、一般的な人では思いつかない答えやパターンを見つけてくれます。

 一方で、システムのトレーニング方法やレスポンスの構造によって、大きな制約がついてしまうのも事実。生成される答えが誤りだったり、偏見にあふれていたり、有害な内容なこともあるでしょう。

 他の情報アクセスシステムも同様の問題はあるものの、大規模言語モデルは透明性を欠くことがなによりも問題。さらに悪いことに、その自然な会話力によって、無知なユーザーは悪い意味でシステムへの信頼感を高め、権威すら感じるようになってしまうのではないでしょうか。


※本記事は、クリエイティブ・コモンズ・ライセンス下でThe Conversationに掲載されていたものを、米Gizmodoが再掲、それを翻訳したものです。

この記事が気に入ったらサポートをしてみませんか?