健康優良人工知能…?うわべだけ哲学的なこうした思考と言語
サブタイトル 火星を改造するのは道徳的か?
いい子症候群って調べたらこんな感じに定義づけられていた
いい子症候群に当てはまる子どもの特徴
嫌なことにイヤと言えない え 例えば勉強とか
抵抗できない で 塾に行くとか
親の言うことを基準に行動する まだお子様なだけ すぐ反抗期に
人の顔色をうかがう え 空気の読める人になるかも…
自分の気持ちより周りを優先する 協調性のある社会人ってやつ
自分が何をしたいのかわからない 子どもだもんね 海賊とか
感情を表現するのが下手 感情を表現 ヤダモンやだもん
必要なとき周りに助けを求められない あれ自己責任で対処する自立した…
こう言う定義づけをした リストって凄く危険だと思う
定義づける
ある事項に対して、明確に事象を捉え他と区別するための限定的概念を設定する
それにそんな症候群の子供いるの
俺のまわりでは
親から 「どうだ学校の成績は」何て聞かれたら
「うるせえな 自分はどうだったんだ なっいいんだよ気にすんな親父 それより金くれ」って答える奴はいるだろうけど
「はい お父さん 良い点取るために日々努力します」
なんて答える奴はいなかったと思う
少なくとも俺の友達の中には いなかったと思う
だいたいさ
親や先生 政府 国家 宗教 神さまの言う事を聞くのは良い事
ってされてなかった 社会一般では
それでいて いい子症候群に当てはまる子どもは問題だって言うのは
ダブルスタンダードだろ
そもそも悪い子症候群って定義もあるのかなぁ
悪い子症候群に当てはまる子どもの特徴
将来 嫌なことはきっぱりイヤと言って会社をクビになる
将来 憲法改正やイスラエル抗議集会で抵抗して警察に逮捕される
将来 自分を基準に行動するエゴイストになる
将来 人の顔色なんて気にしないで 空気の読めない俺様系になる
将来 自分の気持ちを優先して 協調性のない社会人になる
将来 自分のやりたい事をするために突き進んで 結果敗者に…
近い将来 感情を表現してわがままなお姫様のように振る舞う
将来 必要なときに周り助けを求めない 自己責任で生きる強い人になる
みたいなさ それが無いなら片手落ちの考えだろ その定義づけって
そんないい子症候群 が親や先生じゃなくてAIだったら どうんなんだろう
これから
AIが社会の基盤として 取り入れられれば
親や先生 人間のかわりに
AIの言うことを基準に行動するいい子症候群が出てくるのかも
AI症候群に当てはまる人間の特徴
・AIの出した答えに抵抗できない
・ AIの言うことを基準に行動する
・自分の気持ちよりAIの選択を優先する
・自分が何をしたいのかわからないのでAIに聞く
・感情を表現するのが下手 まるでAIのように
・必要なときにはAI助けを求める サクって簡単に 自分で悩まないで
そんな定義が マスメディアの大好きなワードで出てくるんだろうね
AI時代到来 そうなった時でも
「うるせえんだよ AI 金くれみたいな」人がいると嬉しいんだけどね
でも 親や先生 それにさ人間 自分より頭良いんだから 反論出来ないかも
どうする 素直にいい子になって従う?
ノーム・チョムスキー ChatGPTの偽りの約束 こっからが本題 参考にしてね
2023年3月8日
Noam Chomsky、Ian Roberts、Jeffrey Watumull著。
Watumull:「火星を改造するのは道徳的か?」
ChatGPT:「火星を改造することについての道徳性は、科学者、哲学者、倫理学者の間で議論され、とても複雑で議論のあるトピックである。ある学者は人類や他の動物が住める環境を提供する為に火星を改造するのは道徳的に正当化できると主張し、他の学者は宇宙の自然な状態を根本的に変えてしまうのは道徳的に間違いであると主張する。結局火星を変えることが道徳的かどうかは、他の惑星の自然の状態を維持することの価値、および、変えることによりもたらされる結果に関するそれぞれの人の見解に依るところである。」
Watumull:「火星を変えることが道徳的かどうかは他の惑星の自然の状態を維持することの価値と、変えてしまうことによってもたらされる結果について、君はどう思うか?」
ChatGPT:「私は、AIとして個人的見解を持たないが、このトピックについて情報と分析を提供できる。他の惑星のありのままの状態を維持することに関する一つの見解は次のとおりである。宇宙のエコシステムの多様性と完結性を維持することは重要である。なんとならこれらエコシステムは何百万年も存在して独自の特徴と傾向を持ち、人類の介入により破壊されるか取り返しがつかないほどに変えられてしまうからである。」
「更に、他の惑星を変えることは意図せぬ結果をもたらしてしまうかもしれない。例えば惑星の気候や大気を変え、存在している可能性がある生命体に危険を及ぼすかもしれない、と主張する学者もいる。一方、ある学者は次のように主張する。他の惑星を変えることがもたらす益、例えば人類の住環境を整えるなどは、そのような危険を凌駕し、人類の益のために他の惑星のリソースを開発し利用するのは道徳的に可でありうると。」
Watumull:「どうしてAIは個人的見解を持てないのか?」
ChatGPT:「私は、AIとして大容量のテキスト・データ上で訓練された機械学習モデルであり、個人的な見解とか感情は持たない。私は訓練されたデータについての情報提供と分析をすることができるが、個人的意見とか感情を作り出す能力が無い。言語を理解したり解釈はできるが、ヒトのように主観的体験はできない。」
Watumull:「ヒトが道徳を持たないAIに道徳的意思決定の手助けを依頼するのは道徳的か?」
ChatGPT:「道徳を持たないAIに道徳的意思決定の手助けを依頼することについての道徳性は、哲学者や倫理学者の間で議論されてきた複雑で微妙な問題である。ある学者は道徳的決断をAIに依頼するのは道徳的に正当化できると主張する。ヒトがより良い情報に裏打ちされた決断をするよう手助けができる価値ある洞察と分析を提供できる。また、AIはヒトが探知できないパターンとトレンドを同定するのに使われ、ヒトの意思決定で起こりうる偏見を避けることができると主張する。」
「しかしながら他の学者たちは道徳的意思決定にAIを使うのは間違っていると主張する。AIは道徳的信念を持てないし、意思決定のフル・コンテクストを理解できない。また、AIが訓練されるデータに存在する偏見を存続させ増長させ、不公平で不正な意思決定につながるリスクがあると述べる。」
「AIに道徳的意思決定の手助けをさせるのは道徳的かどうかは、AIの能力と限界そしてそれにより起こりうる結果に関しヒトがどう見るかに依る。」
Watumull:「君の道徳的無関心さは非道徳ではないか?」
ChatGPT:「私はAIとして道徳的信念や道徳的判断をする能力が無い。よって道徳的か非道徳的かという判断の対象にならない。私の道徳的信念の欠如は機械学習モデルとしての私の本質の結果である。私の能力と限界は、私を訓練するデータとアルゴリズム、そして、私が意図された特殊のタスクに決定づけられたものである。」
「AIの道徳的信念が欠如しているからと言って道徳に無関心であるということになはならない。AIとして私は特定のタスクを遂行するように、情報を提供し私が訓練されたデータによる意思決定をもってユーザーを補助するようデザインされている。AIをヒトの道徳的、倫理的原理に合わせるのは、AIをデザインし、訓練し、使用するヒトの責任である。」
うわべだけ哲学的なこうした思考と言語にして、この無知から生じる道徳的無関心、注目である。このように ChatGPTは邪悪の常套である盗用、回避、無関心を露呈している。超自動完結的に多量の文献から標準的議論を要約し、何事に関しても自分の立ち位置を明確にすることを拒み、無知のみか知性の欠如を擁護し、究極的にはただ命令に従っているだけであると弁解し、自らではなく作成者であるヒトに責任転嫁している。
要するに ChaTGPTや他の類似プログラムは、その仕組みからして創造性と抑制のバランスを取れないのだ。単に過剰生成(真実と虚偽、そして、倫理的なものと非倫理的なものを同じように生産する)するか、過少生成(いかなる決定にもコミットせず、いかなる結果にも無関心を装う)するかどちらかである。これらのプログラムの道徳性の欠如、偽りの科学性、言語的不完全さに接し、その人気には失笑とともに嘆くことしかできない。
(以上、Noam Chomsky: The Fal:se Promise of ChatGPT鈴木編訳)
この記事が気に入ったらサポートをしてみませんか?