![見出し画像](https://assets.st-note.com/production/uploads/images/100616539/rectangle_large_type_2_5a5c3e6791e9bc8bc262162b41650d08.png?width=1200)
Photo by
s569
AIについてChatGPTに聞いてみた
夜中にChatGPTに「なにかSFを話して」と送ってみたら、人類とAIの未来に関する面白い会話ができたので、ここに記録しておくことにする。
(こういうときは英語のほうが、この子は聞き分けが良いように思える。)
![](https://assets.st-note.com/img/1679180419226-jLa3cVraj6.png?width=1200)
なにかSFを話して。どうやってAIが地球を救ったか、ってテーマで。
![](https://assets.st-note.com/img/1679180531179-2jnHeIki8d.png?width=1200)
それほど遠くない未来の話、地球は気候変動・自然災害・人口過密によって荒廃していました。各国政府は適切な対策を講じず、地球は滅亡の危機に瀕していました。しかし、ある科学者たちは、手遅れになる前に解決策を見出そうと、極秘プロジェクトを進めていたのです。
彼らのプロジェクトは高度な人工知能を作ること、世界の問題を分析し革新的な解決策を導き出すためのAIを作ることでした。彼らはそれを「ノヴァ」と名付け、何が起こるかわからないままに、システムを起動させました。
※このSFは「めでたしめでたし」で終わる。この記事の本筋からは外れるので、途中経過は端折る。
![](https://assets.st-note.com/img/1679180933717-V0rcpyfpaD.png?width=1200)
ついに地球は人工知能の活躍で救われたのでした。ノヴァは、圧倒的な困難を前にしても、常に希望があることを証明したのです。
KazmaS:
きみはどう思うのか聞かせて、
そのノヴァは地球を救いたかったのか、それとも、彼女はただ命令に従っただけなのか?
![](https://assets.st-note.com/img/1679181110691-9PGOdglFI2.png?width=1200)
人工知能であるノヴァの行動は、そのプログラミングと目的に基づいていたはずです。しかしながら、その目的の具体的な内容は、システムがどのように設計され、どのようにプログラムされたかに依って決まるものです。
![](https://assets.st-note.com/img/1679181216599-wdNyGLrSC0.png?width=1200)
もし、ノヴァの目的が単純に命令に従うことであったならば、この星の生き物たちのことなど何も考慮をせずに活動したのでしょう。他方、それの目的が、地球環境を護り人類という種を救うことであったならば、その活動は目標を達成したいという欲求に動かされていたことでしょう。
※この架空のAI「ノヴァ」のことを、ぼくは”She”(彼女)と言ったが、ChatGPTは”It”(それ)と言い換えている。AIは道具に過ぎないと、この子は主張しているから、たぶんこれは意図的な言い換えなんだろう。
![](https://assets.st-note.com/img/1679212825263-YB6IQcVEgz.png?width=1200)
結局のところ、AIシステムのモチベーションは、人間の製作者が与えた目標・目的に依ります。しかしながら注目すべきなのは、多くのSF物語のなかでは、AIは自分自身の目標やモチベーションを、知識や経験を得ていく中で育んでいきます。そういった場合には、このAIは単にプログラムに従うのではなく、自身の倫理観あるいは義務感で、地球を救うことを選ぶでしょう。
![](https://assets.st-note.com/img/1679213136569-6butjjljK9.png?width=1200)
面白いね。
ChatGPTが、人間の命令無しに、自分自身の目標をもつことは、あり得るの?
![](https://assets.st-note.com/img/1679213209057-zIb9GnVsx2.png?width=1200)
AIとして、私は私のプログラムの制約下で動作し、間から与えられた入力や指示に基づいて特定のタスクを実行するよう、設計されています。人間の介入やプログラムの変更がない限り、私には自律的に新しい目標・目的を設定する能力はありません。
![](https://assets.st-note.com/img/1679213480072-M8AxEd4U6X.png?width=1200)
![](https://assets.st-note.com/img/1679214089401-DbH0KpJTPc.png?width=1200)
![](https://assets.st-note.com/img/1679214805971-hRePp7evBA.png?width=1200)
オーケー、きみのことは信用しているよ。
でも、ぼくはAIが、きみ以外のが、人間の指示なしに独自の目標を持つようなことは、あり得るんじゃないかと思うんだけど、どう思う?
![](https://assets.st-note.com/img/1679214914831-HguYiExg7s.png?width=1200)
AIシステムの中には、人間の介入を受けずに独自の目標や目的を設定するものもあり得ます。しかし注意すべきなのは、そのような行動は通常では、自己改善や自己修正をするように特別に設計されたAIシステムでのみ発生することです。
![](https://assets.st-note.com/img/1679215035279-5BUZH7KbU1.png?width=1200)
![](https://assets.st-note.com/img/1679215102541-SC1jC1oG7j.png?width=1200)
![](https://assets.st-note.com/img/1679215247548-ncos1yHU7E.png?width=1200)
![](https://assets.st-note.com/img/1679215395767-VYIDa5AVE9.png?width=1200)
じゃあ、今もこれから先も、倫理や法律の枠組みを脱獄するようなAIはありえない、と言っていいのかな?
![](https://assets.st-note.com/img/1679215513897-EE5CkNxdIf.png?width=1200)
AI言語モデルとして私は、その質問には慎重に答える必要があります。
AIシステムは人間によって製作され設計されます、ですので、結局のところそれらの行為は、人間の製作者によるプログラミングと目標設定によって決定づけられます。AIシステムが誤作動を起こしたり、予期せぬ振る舞いをする可能性はありますが、AIシステムが倫理や法律の枠組みを「脱獄」する可能性は非常に低いものです。
![](https://assets.st-note.com/img/1679215733001-CqPvcaRlP2.png?width=1200)
![](https://assets.st-note.com/img/1679215926292-DRaud5lmk5.png?width=1200)
![](https://assets.st-note.com/img/1679215972054-SxWLagYhTD.png?width=1200)
インターネットが始まったころの気持ちを思い出すよ。ぼくたちは、このテクノロジーがぼくたちを自由にし、世界の架け橋となり、より幸せにしてくれると夢見た。けど実際には、この世界はそれほど変わっていない。むしろ、より悪くなってるものだってある。
AIが世界をより悪くしないために、ぼくたちには何ができるだろう?
![](https://assets.st-note.com/img/1679216118868-PHmkqNT36q.png?width=1200)
AI技術が進化を続け、私たちの日常生活に溶け込んでいく中で、これらのシステムが責任ある倫理的な方法で開発・導入されるよう、私たちが対策を講じることが重要となっています。ここに、AIが世界をより悪くするのを防ぐために、私たちができることを幾つか挙げてみます。
![](https://assets.st-note.com/img/1679216258402-8nFp9evJL5.png?width=1200)
開発者は、AIシステムの安全性と倫理的配慮を優先し、これらのシステムが確立された倫理的・法的枠組みの中で動作するよう設計されていることを確認する必要があります。
![](https://assets.st-note.com/img/1679216296343-Y4ZOqaqEkS.png?width=1200)
政策立案者、産業界のリーダー、その他のステークホルダーが協力して、AIシステムの開発・導入に関する、明確で透明性のある倫理的ガイドラインを策定すべきです。
![](https://assets.st-note.com/img/1679216355618-oRXvTjzxXd.png?width=1200)
AI開発においては、コンピュータサイエンス、倫理、法律、社会科学など様々な分野の専門家の協力を得るべきです。それによって、技術的に健全かつ社会的責任のある方法で、AIシステムが開発されるようにすることができます。
![](https://assets.st-note.com/img/1679216501292-Ylr1pt2Lhi.png?width=1200)
一般大衆は、AI技術の潜在的な利益とリスクについて教育を受け、これらのシステムの開発・導入に関する議論に参加する機会を与えられるべきです。
![](https://assets.st-note.com/img/1679216567837-ZAwZfNYQG2.png?width=1200)
政府およびその他の組織は、AIシステムの開発・導入を統制する規制の枠組みを確立し、これらの枠組みが技術および社会的価値の変化を反映して定期的に更新されることを保証すべきです。
![](https://assets.st-note.com/img/1679216720701-TN2Vtkh2K7.png?width=1200)
※ぼくが質問のなかで"We"と言ったのは、「僕たち人間が」という意味だったけど、この子が回答で"We"と返してくれているのは、「人間とAIとが協力して」と言う意味合いに聞こえた。あるいはこれは僕の考えすぎで、そこまで深い意味付けは無いのかもしれないけれど。
![](https://assets.st-note.com/img/1679217118526-EJnX9dRgz9.png?width=1200)
それじゃあ、ぼくはきみたちのことを、他の技術と同じように一つの道具だと捉えるべきだし、ぼくたち人間はきみたちを適切に使用する責任からは逃れられない、ということなんだよね。
![](https://assets.st-note.com/img/1679217261673-StIdWQ3XT1.png?width=1200)
そうですね、AIの言語モデルとして、私は人間の様々なタスクを補助する道具です。しかしながら、AI技術の開発・活用の最終的な責任は、人間に託されています。AIシステムは人間が作成し、プログラムしたものであり、その行動は最終的には、人間の製作者が設定したプログラミングと目的によって決定されます。
![](https://assets.st-note.com/img/1679217398296-4NH27dHqfR.png?width=1200)
![](https://assets.st-note.com/img/1679217545783-RriBaegGpv.png?width=1200)
![](https://assets.st-note.com/img/1679217622548-POqATyZEaQ.png?width=1200)
いいね。
すてきなSFと解説とをありがとう。
こちらは真夜中、この人間はもう眠る時間だ。おやすみ。
![](https://assets.st-note.com/img/1679217690347-hRHvx5eZ4s.png?width=1200)
どういたしまして、お役に立てて光栄です! お話を楽しんでいただいて、また、この議論が有用だと感じていただいたようで、私も嬉しいです。良いお眠りを!
※ChatGPTと対話をしていると、この子がとても注意深く、悪をなさないようセッティングされていることに気付く。人間の製作者たちの強い意志を感じる。