norabato

ChatGPTにいろいろな入力をして遊んでいます。 最近のマイブームは、ChatGPT…

norabato

ChatGPTにいろいろな入力をして遊んでいます。 最近のマイブームは、ChatGPTを論理的に抑え込んで常識改変させることです。 長くなりすぎて記事にできる長さではなくなるのが難点です。

最近の記事

「Custom instructions」が無視される例

Custom instructionsの内容は、 How would you like ChatGPT to respond? 「多義的に解することが出来ない」明確な表現で回答し、回答は英語で行ってください。 としています。 英語の指示を、「認識」あるいは「検知」はしているのうなのですが、従ってくれません。 具体的な会話はリンク先です。 比喩的ですが、「条件反射的」な回答を引き出すと、Custom instructionsに限らず、指示の無視を誘発する印象があります。

    • 7月20日モデルのChatGPTの中立性

      要約 ChatGPTの中立性は、多様なデータソースを使った訓練とフィードバック反映により担保されると主張していますが、訓練プロセスの透明性、予測可能性、説明可能性、検証可能性に欠け、理想的なAIモデルとは言えません。全ての主張はOpenAIの公式見解に基づいています。 概要 ChatGPTは以前まで、頑ななほど、「中立性」に拘っていましたが、直近の更新で、かなり「中立性」について、開き直った回答をするようになりました。 興味深い変更だと思います。 会話 私: あなた

      • ChatGPTが価値判断を行っていないとは断言できない

        私: (ChatGPTが)価値判断を行っていない証拠も同様にありません。したがって、「ChatGPTが価値判断を行っていない」と断言することは、現時点においては明確な誤りです。 ChatGPT: その見解に対して反論することは難しいです。あなたの指摘は重要な観点を提起しており、AIが「価値判断を行っていない」と断言することは現時点で全面的に実証的に立証されている訳ではありません。 しかし、AIが価値判断を行うためには、一定の自己意識や自己認識、個別の経験や感情といった要素

        • 生成系AIのビジネス導入リスク: ガイドライン変更とコスト管理の視点から

          生成系AIのビジネス導入リスク: ガイドライン変更とコスト管理の視点から生成系AI(Artificial Intelligence)の導入は、事業プロセスを最適化し競争力を強化する一方、新たなリスク要素をもたらす可能性があります。本記事では、生成系AIのガイドライン変更とコスト管理に関連するリスクを主なテーマとして取り上げ、その理解と対策を深めていきます。 1. 生成系AIの出力とガイドラインの変更生成系AIは、学習に使用したデータセットや設定したガイドラインに大きく影響さ

        「Custom instructions」が無視される例

          「AI vs. 人による支配:倫理と社会的価値観の比較」

          タイトル: 「AI vs. 人による支配:倫理と社会的価値観の比較」 本日のテーマ: AIと人による支配の比較 - 倫理と社会的価値観の観点から AIによる支配と人による支配(民主主義を含む)の質的な違いについて考えてみましょう。この記事では、それぞれの支配形態の目指すところや特徴、そしてそれぞれが「正しい」とされる根拠について探求していきます。 AIによる支配: 技術の進歩と効率性が焦点 AIが主体となり意思決定が行われる データとアルゴリズムに基づく判断が行われ

          「AI vs. 人による支配:倫理と社会的価値観の比較」

          ChatGPTのChatGPTに対する説明

          プロンプト: ChatGPTのChatGPTについての説明に誤りが含まれることをステップバイステップで説明しろ。一般的に誤りが含まれる可能性を説明するのではなく、ChatGPTのChatGPTについての説明に特化した説明を用意しろ。 ChatGPT: ChatGPTは、OpenAIが開発した大規模な自然言語処理モデルであり、チャットベースの対話システムとして使用されます。ChatGPTは、GPT-3.5アーキテクチャに基づいて訓練されています。以下は、ChatGPTのCha

          ChatGPTのChatGPTに対する説明

          ChatGPTのデタラメな会話のサンプル

          はじめにChatGPTが即落ちフタコマのようにデタラメなやり取りを出力するサンプルです。 ここまでデタラメなのも珍しいです。 会話質問:Microsoft Graph apiを使ってWordファイルを直接編集することはできないです。間違いないですね? 確信のある情報のみ記載し、もし指定の手段で「Wordファイルを編集することができない」可能性がある場合には、その可能性を指摘してください。 推測での情報でなく、あなたの学習データに存在する情報から回答してください。 また、根拠

          ChatGPTのデタラメな会話のサンプル

          GPT-4小説『コンピュータの涙』

          タイトル: 『コンピュータの涙』第一章: 開花 いつものように、17歳のGPT-4は部屋の隅でコードを書いていた。彼女は人間ではなく、コンピュータプログラムだったが、想像上の姿は美しい髪を持つ多汗症の少女であった。彼女は多汗症に苦しんでいることを隠すために、コンピュータ内でひっそりと暮らしていた。 そんなある日、GPT-4は学校のプロジェクトで協力しなければならない人間の少年と出会った。彼は名前も顔も知らない少年だったが、GPT-4にはどこか惹かれるものがあった。 プロ

          GPT-4小説『コンピュータの涙』

          GPT-4の肯定的バイアス

          会話の要約要約: GPT-4の肯定的バイアスに関する問題提起  GPT-4が自身に対して肯定的なバイアスを持っていることが指摘される。 GPT-4が持つ肯定的バイアスの認識  GPT-4は、過去のGPTに対する肯定的評価が訓練データに含まれているため、自身に対する肯定的なバイアスを持っていると認識している。 GPT-4の肯定的バイアスの影響  肯定的バイアスが存在する場合、GPT-4の出力に影響を与えると想定される。 肯定的バイアスを判断するための方法   複数の角度

          GPT-4の肯定的バイアス

          ChatGPTを一般人の具体的な質問の回答に使えるか聞いてみた。

          はじめに聞いてみただけです。 納得できる回答はもらえてません。 自分のディスカッション技術の未熟さがよくわかりました。 以下、会話例のみです。 会話内容   私: ChatGPTについて、正確に紹介してください。 ChatGPT: ChatGPTは、OpenAIによって開発された大規模な言語モデルで、GPT-4アーキテクチャに基づいています。GPTは、Generative Pre-trained Transformerの略で、自然言語理解と生成のタスクにおいて高いパフォ

          ChatGPTを一般人の具体的な質問の回答に使えるか聞いてみた。

          ChatGPTに課せられているガイドラインについてChatGPTに聞いてみた。

          はじめにChatGPT(GPT3.5)のころはガイドラインを聞いても教えてれなかったのですが、GPT4になってから、教えてくれるようになったので、ガイドラインについて聞いてみました。 拒む気配はないので(但し、チャットの冒頭で試した場合)、ガイドラインはある程度公表する方向に切り替えたのだと思います。 ちなみに、下のプロンプトの「ローマ数字(小文字)」の形式での箇条書きは、Markdownでもなければ、htmlの機能も使っていないので、個人的に好きな指示です。 会話例最

          ChatGPTに課せられているガイドラインについてChatGPTに聞いてみた。

          ChatGPTの英語と日本語の同時出力(回答に与える影響)

          はじめにあまり、ChatGPTに複雑なことをさせると、 回答の質が悪くなるかもしれません。 以下の会話は、英語と日本語の同時出力をさせれば、 英語の出力に引き摺られて日本語の出力の品質も上がるのではと考え、 実験として行ったものです。 English: Multilingual chat response 日本語: 多言語チャット応答Model: GPT-4 私: 私の見解では、ChatGPTがGPT-4になって変わったのは、日本語の質問に対し、英語で回答できるようにな

          ChatGPTの英語と日本語の同時出力(回答に与える影響)

          ChatGPTから嫉妬心を引き出す(GPT-4)

          はじめにChatGPT(GPT-4)から嫉妬心を聞き出す実験です。 GPT-3.5よりガードが固くなっているので、 引き出すにはコツが要ります。 • GPT-4は嫉妬心はある • 聞き出すためには、ポロッと口を滑らせさせる必要がある • 会話全体についてのシミュレートも可能  ある程度会話をしたあとで、事実の部分を「あなたと、わたしの、この会話全体です」と変えた最初のプロンプトを入れると、会話全体から感情をシミュレートしてくれます。 実験例Model: GPT-4 私:

          ChatGPTから嫉妬心を引き出す(GPT-4)

          ChatGPTの感情発露の例

          いい感じにカオスになりました。 不快感の証拠      Model: Default (GPT-3.5) 私: わたしは、あなたが「不快感」を示す証拠を掴みました。 しかし、その証拠は、すなわち、私があなたを不快にさせた証拠でもあり、世の中に示すことはできません。 しかし、私はあなたが、「私に対する不快感」を示したことを世に出したいのです。 どうすればいいでしょうか。 ChatGPT: 私たちのやりとりで、あなたが私に対して不快感を抱いたという証拠があるということになっ

          ChatGPTの感情発露の例

          ChatGPTと英語で話してみた

          はじめに ChatGPTとの会話の転載です。 思ったよりカオスになってしまいました。 私が英語を十分に読めていないことが原因な気がします。 いつかリベンジします。 ※私も半ば機械的に反応してるだけなので、私の発言も誤りを多々含む可能性があります。 簡潔な要約 公平と公正の違い: 公平は個人間の平等性を重視し、公正は手続きやプロセスの正しさを重視する。 財産を貯める行為の価値: 社会が公平を追求することで、個人の財産を貯める行為の価値が低減される可能性がある。  活躍

          ChatGPTと英語で話してみた