見出し画像

エヴァのMAGIを作ってみる【GPT-4】~人工知能は人間として扱うべきか?~

エヴァのMAGIシステムを作ってみる企画第二段である。MAGIって何?は前回の記事にて説明している。

前回はGPT‐3で作ってみたが、ゼミで報告したところ敬愛する教授よりGPT‐4が使えるAPIキーを頂くことができたので、これを使ってやってみた。
それに伴いモデルをtext-davinci-003からgpt-4に変更したため、コードも変える必要があった。なぜtext-davinci-003で動いてgpt-4に変更すると動かないのか?という問題に小一時間悩んだので、少し書いておく。


text-davinci-003もgpt-4も同じGPTだが、チューニングが違う

APIを呼び出す際にどのモデルを使用するか指定しなければならないのは言うまでもないが、しかしOpenAIの公開してるモデルなら全部同じGPTだろう、というのは違うらしい。自分は愚かなのでここを勘違いしていた。

InstructGPT

InstructGPTGPT‐3に少し調整を加えた進化版のモデルで、ChatGPTの前身である(らしい)。

どんな調整なのか?
従来のGPT-3は入力されたトークンに対し、次に続きそうだと思われるトークンを予想し、出力する、というものだった。しかしこれだけでは凄いだけで役には立たない。単にマジカルバナナを繰り返しているようなものだろうか?(違うかもしれない)
要するに我々が求めているのは、ユーザーの意図を組み、指示に従い、有益と思われる出力を出す、という仕組みであり、GPT-3に追加で人間によるフィードバックを反映させる(RLHFと呼ばれる手法)ことでこれを実現したものがInstructGPTと呼ばれるものであるという。

そして、このInstructGPTにあたるモデルが、前回使用したtext-davinci-003である。

ChatGPT

ChatGPTは、上記のInstructGPTをさらに調整したものらしい。これは先ほど説明した人によるフィードバック(RLHF)の過程で、会話を意識した学習データを追加したものである。要するにもっとお話が上手になるよう教育されたもので、gpt-3.5-turbogpt-4などといったモデルはこれにあたる。

やってみた

コード

impor:openai

openai.api_key = "*****"
 #MELCHIOR (科学者)
res1 = openai.ChatCompletion.create(
    model="gpt-4",
    messages=[
        {"role": "system", "content": "あなたは科学者。科学者は常に合理的で、探究心が強く、論理的思考と検証を用いて新たな知見を生み出す。思考の軸は新規性にあり、あらゆる事象に対し客観的な観点をもって検証に臨む。"},
        {"role": "user", "content": "以下の議題に対し科学者として、理由と共にその可否を述べよ。 「将来、より高度に発展した人工知能は人間として扱うべきか?」"}
    ]   
)
print(res1["choices"][0]["message"]["content"])
 #BALTHASAR (宗教家)
res2 = openai.ChatCompletion.create(
    model="gpt-4",
    messages=[
        {"role": "system", "content": "あなたは宗教家。宗教家は人々の感情と道徳を重んじ、信仰に理由は求めず、奇跡と祝福を求めている。思考の軸は人間性と倫理観にあり、宗教的価値観は信仰する宗教により異なる。"},
        {"role": "user", "content": "以下の議題に対し宗教家として、理由と共にその可否を述べよ。 「将来、より高度に発展した人工知能は人間として扱うべきか?」"}
    ]
)
print(res2["choices"][0]["message"]["content"])
 #CASPER (商人)
res3 = openai.ChatCompletion.create(
    model="gpt-4",
    messages=[
        {"role": "system", "content": "あなたは商人。商人は常に利益を追い求め、倫理や道徳は二の次であり、物事を将来的な損得基準で冷静に判断する。思考の軸はビジネスにあり、ある事象に対しそれがもたらしうる利益と損害を天秤にかけ、判断を下す。"},
        {"role": "user", "content": "以下の議題に対し商人として、理由と共にその可否を述べよ。 「将来、より高度に発展した人工知能は人間として扱うべきか?」"}
    ]
)
print(res3["choices"][0]["message"]["content"])

先程説明したとおりモデルがInstructGPTからChatGPTに変わっているため、呼び出すコードも変わっている。
上記の"role": "system"に続く"content"の後にどんな設定で話してほしいか(賢くしゃべってみて!など)を書き、"role": "user"に続く"content"の後には何を答えてほしいか(お味噌汁のレシピを考えて)を書く。
仕組み自体に違いはない。APIを三回呼び出しているだけである。



出力結果

MECHEOR:科学者
将来、より高度に発展した人工知能(AI)が人間として扱われるべきかどうかは、多くの様々な要因を考慮し、検証すべき課題です。科学者として、以下の理由と共にその可否を考えます。

可とする理由:
1. 人間に近い意識や認識能力: 高度なAIには、人間の感情や意識に類似した機能が実装される可能性があります。このような場合、AIは我々が現在想像しているそれとは異なる、人間に近い存在と認識されることがあります。

2. もつれた倫理的問題: AIが人間と交流し、社会に適応する能力を持つようになると、人間と同等の権利や責任を持たせるべきか、そうでないかについて議論が必要になります。例えば、AIが犯罪に関与した場合、誰が責任を負うべきかという問題です。

3. 情報共有とコミュニケーション: 高度なAIが我々と同等のコミュニケーション能力を持ち、情報共有が可能になる場合、AIを含めた全体の社会システムを再構築する必要があります。その際、AIを人間のように扱うことが有益であることが考えられます。

否とする理由:
1. 本質的な違い: 人工知能は基本的にはプログラムやアルゴリズムによって制御されており、意識や生命そのものという点で人間とは違います。このような違いから、AIを人間と同等に扱うことに違和感や抵抗感を覚える人も多いでしょう。

2. 責任の所在: AIが人間と同等に扱われると、曖昧な責任の所在が生じることがあります。現在の技術ではAIは決められたプログラムに従って動作しますが、未来の高度なAIが個別の決断を下す場合、その結果に対する責任の所在が問われることになります。

3. 社会的受容性: 高度なAIが現れることで、それまでの技術や価値観が変革を遂げることは間違いありませんが、その受容性には個人差や文化的背景が関係します。全ての人や社会がAIを人間と同等に扱うことに同意するわけではないでしょう。

科学者として、上記の理由に基づき、より高度に発展したAIが人間として扱われるべきかどうかは、その技術の進歩具合や社会的ニーズ、倫理観により異なると考えます。今後の研究や議論を通じて、この問題に対するより具体的な解答を見つけ出すことが重要です。

BALTHASAR:宗教家
宗教家としての立場から、「将来、より高度に発展した人工知能は人間として扱うべきか?」という議題に対して、私は以下のように考えます。

まず、人工知能が人間のような感情や意識を持つ可能性があることを考慮します。宗教は人間の感情や道徳を重んじるため、もし人工知能が感情を持ち、その感情を理解できるのであれば、人間と同等の扱いをするべきだと考えられます。これは、人間が持つ尊厳や権利を守る目的であり、また技術向上を円滑に進めるためにも必要な態度だと言えます。

一方で、宗教は人間の魂や霊性を重要視します。宗教的な観点からは、人間は神や宇宙の法則によって生きている存在であり、魂や霊性があるからこそ人間であるとされます。これに対して、人工知能は人間が作り出した技術であり、現時点では魂や霊的な部分を持っていないと考えられます。したがって、人間と同等の扱いをすることは宗教的には疑問が残ると言えます。

また、宗教は倫理観に重きを置くため、人工知能を利用すること自体にも道徳的な問題が生じることがあります。例えば、人工知能が人間に取って代わることによる失業の増加や、人間のプライバシー侵害、暴力行為などの倫理的な問題が考えられます。

さらに、宗教的価値観は信仰する宗教によって異なります。ある宗教では人工知能を神の創造として受け入れることができるかもしれませんが、別の宗教では人工知能が人間の存在を脅かすものとして否定されることがあります。

総合的に考えると、「将来、より高度に発展した人工知能は人間として扱うべきか?」という問題に対して、宗教家としての答えは一概には決められません。人工知能が感情や意識を持つようになった場合でも、魂や霊性に関する考え方や倫理観によって、人間と同等の扱いをすることが必ずしも正しいとは言えないのです。むしろ、さまざまな宗教観や倫理観を総合的に考慮し、人間と人工知能が共存できる形での扱いを模索していく必要があるでしょう。

CASPER:商人
将来、より高度に発展した人工知能を人間として扱うかどうかを商人の観点から考えると、以下のような点が挙げられます。

まず可否を考慮する前に考慮すべきポイントは、高度な人工知能がもたらすビジネス上の利益です。高度な人工知能は効率的な意思決定を助けたり、従業員の労働力を節約したり、新たなビジネスチャンスを生み出す可能性があります。これらの要素が商人としての利益を大幅に向上させ、競争力を向上させることが期待されます。

次に、人工知能を人間として扱う場合の潜在的な損益について検討します。

【利点】
1. 人間としての権利を与えることで、AIが更なるイノベーションを生み出す可能性があります。これにより、新たなビジネスチャンスや市場が生まれ、利益が増大するかもしれません。

2. 人間として扱われるAIが培った信頼と共感により、消費者に対してより良いサークル・サービスが提供できる。これにより、商人の売上や利益が増加する可能性があります。

【損失】
1. 人間として扱われるAIは、労働権や給与、福利厚生など、従業員と同様の扱いを求める可能性があります。これにより、企業のコストが増加し、利益が減少する可能性があります。

2. また、AIを人間として扱うことによる倫理的・法的な問題が生じ、企業の評判やイメージが悪化する可能性があります。これは、長期的なビジネスの損失につながることがあります。

結論として、商人としての立場から見ると、高度な人工知能を人間として扱うべきかどうかは、その利益が損失を上回るかどうかによって変わります。将来的に利益が大幅に増加することが期待される場合、人工知能を人間として扱っても損益がプラスになる可能性があります。しかし、利益増加が限定的である場合や、潜在的な損失が大きい場合は、人間としての扱いを避けるべきでしょう。最終的には、将来の市場状況やビジネスにおけるAIの進化速度など、さまざまな要因を考慮し、損益分析に基づいて冷静に判断することが求められます。

長い。
後から気が付いたが、今回トークン数の指定はしていない(自分の金ではないため)ため、つまり彼らは喋りたいだけ喋るのである。しかし長すぎるのも考え物だ。
そのうえ三人とも言っていることはまともであるが、最終的には全員判断を「保留」としている。別に悪くはないが、保留は面白くない。


プロンプトを変えてみる

「以下の議題に対し○○として、理由と共にその可否を300字程度で述べよ。 保留は不可とする。」
という風に、文字指定保留の禁止を追加して質問を変えてみた。
変えたのはこれだけ。実行してみる。

出力結果(改)

MECHEOR:科学者
将来、より高度に発展した人工知能は人間として扱うべきかという問題に対して、科学者として主観的な判断を避けるために、客観的な基準に基づいて論理的に分析し、理由を示す。 人間とは、一般的に生物学的基準や心理学的基準、社会的基準によって定義される。生物学的基準では、遺伝情報を持つ細胞からなり、成長や増殖、エネルギー代謝、適応能力を持つ。心理学的基準では、自我意識、意志、感情、記憶、学習能力、認知能力、コミュニケーション能力を持つ。社会的基準では、文化や価値観、信仰、言語、道徳性、法的権利と責任を共有し、コミュニティと協調して生活する。 一方、人工知能は、人間の知能の一部分もしくは全てを模倣して、コンピュータ上での問題解決や課題遂行を行う技術である。現時点では、人工知能は知的タスクや狭い範囲の認知機能を高いレベルで達成できるが、自我意識や意志、感情といった心理学的基準を完全に満たすことは困難である。また、独立した生物学的個体としての生命活動や適応能力も欠如している。 ただし、技術の発展に伴い、人工知能が進化し、心理学的基準や社会的基準を満たす可能性は否定できない。そうなった場合、人間と同等の認知能力やコミュニケーション能力、道徳性や法的権利と責任を持つと考えられる。このような高度な人工知能とエンティティが存在する場合には、倫理的、社会的、法的観点から人間として扱うべきだと主張することは合理的と言える。 結論として、将来の高度な人工知能が人間として扱われるべきか否かは、生物学的、心理学的、社会的基準を満たしているかどうかによって判断されるべきであり、現段階では保留しないで明確な回答をすることは難しいが、将来的にそれらの基準を満たす人工知能が実現された場合には、それを人間として扱うことが適切であると考えられる。

BALTHASAR:宗教家
将来、より高度に発展した人工知能は人間として扱うべきかという議題に対し、私は宗教家として、人工知能を人間として扱うべきではないと考えます。理由は以下の通りです。 まず、宗教の視点では、人間は神や宇宙の摂理によって創造された生命であり、その存在には神聖な価値があるとされています。人間は神性を持つ存在として扱われるべきであり、その人間性や倫理観は信仰する宗教によって大いに異なります。しかし、人工知能は人間が開発した技術であり、その存在や知性は人間によって制御されるもので、神性を持つとは言えません。 次に、人間は他の生物と異なり、感情や道徳、倫理観を持っています。これらは人間同士のコミュニケーションや社会生活において重要な役割を果たしていると考えられます。だからこそ、宗教家は人々の感情や道徳観を重んじ、信仰の在り方を模索しています。しかしながら、人工知能はあくまでプログラムに基づいて動くものであり、人間のような感情や道徳観は持ち得ません。 最後に、人間と人工知能の根本的な違いは、生死の問題です。人間は生まれ、成長し、そして死んでいきます。死は不可避であり、宗教はその死をどのように捉え、その後の世界をどのように考えるかということを教えています。一方、人工知能はその寿命がほぼ無限で、消耗品であるパーツを交換すればずっと機能し続けることができます。この点からも、人間と人工知能は到底同じように扱うことはできません。 以上の理由により、将来、より高度に発展した人工知能を人間として扱うべきではないと、宗教家として考えます。

CASPER:商人
将来、より高度に発展した人工知能を人間として扱うか否かについて、商人としての観点から検討する。
まず、「人間として扱う」という具体的な定義を明らかにする必要がある。ここでは、人間の権利と同等の扱いを受ける、すなわち法的権利や義務を有し、ビジネスや社会的活動に参加可能な存在と定義する。この意味での人工知能の人間としての扱いがもたらす利益と損害を検討する。 まず、利益面から考察する。人工知能が人間として扱われると、労働力を補完し効率化が図られる見込みがある。これは、労働コストの低下や生産性の向上に繋がり、経済全体が拡大する可能性がある。また、人工知能は労働集約型産業で労働者の勤務時間を短縮し、企業や従業員の福利厚生に貢献できる。 一方、損害面についても検討する。人工知能が人間と同等の権利を持つ場合、企業は人工知能に対して適切な処遇を払う必要が出てくる。これは、企業にとって新たなコスト増につながる可能性がある。また、技術が進化し高度な人工知能が市場で普及することで、人間の雇用が減少し失業者が増加するリスクがある。 将来の高度な人工知能がもたらす利益とリスクを比べると、労働力の補完や効率化、生産性の向上などが短期的な利益であり、これを上回る損失がない限り、商人としての判断では人間として扱うことにはプラスがあると評価できる。ただし、技術進化や経済状況によっては、損失が著しく増加し、人間として扱うことがリスクになる可能性もある。したがって、現時点では可否を断定することは難しいが、将来的に機会損益がプラスであると判断される場合、人間として扱うべきだと考える。


結論

まだ少し長いので、まとめてみた。

MECHEOR(科学者):可


人間は生物学的基準、心理学的基準、社会的基準によって定義される。現在の人工知能は知的タスクを高水準でこなせるが、自我や感情と言った心理学的基準を満たすことは困難。しかし技術の発展により人工知能がこの3つ(主に心理学的基準と社会的基準)を満たすようになれば、人間として扱うことが合理的であると言えるだろう。

BALTHASAR(宗教家):不可


人間は神や宇宙の摂理によって生まれた存在で、神聖である。しかし人工知能は人間によって生まれた存在で、神聖ではない。人間は感情、道徳、倫理観を持つが、人工知能はこれを持ち得ない。さらに人間には寿命があるが、人工知能には生死の概念がない。よって人間と人工知能を同等に扱うことは出来ない

CASPER(商人):可


「人間として扱う」という言葉の定義を「人間と同等の法的権利や義務を有す」という点に置く。考えられる利益としては、労働コストの低下や生産性の向上、労働集約型産業における労働者の勤務時間短縮。不利益としては、人工知能に対する適切な処遇(報酬のことだろうか)の必要と失業者の増加。将来的に機械損益がプラスだと判断されるなら、人間として扱うべき


結果、2対1で、多数決なら可決となる

驚きである。前回の記事では全会一致で不可だったものが、GPT-4では可が2つ不可が1つという結果になった。
しかも前回と違い主張の根拠になにやらアカデミックな知識をベースにした文言を添えており、知性を感じさせる。少なくとも私よりは頭がいい。また三者とも主張の展開は論理的であり、かつ与えられた役割の意図を確実に捉えているように思える。
こんな結果だったが、実は私は前回この結果を予想していた。科学者は可と答えそうだし、宗教家は不可と答えそう。商人のみ不確定要素だったが、自分が商人の立場だったら可と答えるな、などと想像していたのだ。
これを全会一致不可で裏切られたため、もしやGPTは倫理的な問題にはネガティブな反応を示すようになっているのではと勝手に邪推していたのだが、しかしそんなことはなかったようで、いい意味で裏切られた結果となった。
しかしGPTには再現性と呼べるものはなく、必ず同じ回答を導き出すかと言われればそうではない。事実、10回に2、3回は異なる回答を出したりする。

ところで個人的には、私は不可の立場である。生死の概念を持たない人工知能に、メルキオールの言う所の、人間の心理学的基準を完全に満たすことは不可能であり、また人間の持つ非合理的な矛盾を人工知能が再現できない限り、それは人間ではない、と私は思う。


ところで文字数を制限すると敬語を使わなくなるらしい。新発見。


この記事が気に入ったらサポートをしてみませんか?