見出し画像

人間とAIの付き合い方をめぐる5つの記事

THE TECHNOLOGY NOTE更新2回目、今回ディスカッションで話題の中心になったのは、前回に引き続き「AI」。なかでも昨日APIも公開され一気に様々な用途が開発されつつある「ChatGPT」でした。私たちはChatGPTのようなAIとどのように付き合っていけばいいのか、AIの社会実装が進んだ先にどのようなことが起こるのか?様々なディスカッションの末、今回は以下の5つの記事が執筆されました。

将棋の勝率予測AIによって、一手ごとの勝率が可視化されるようになったことで棋士の戦い方に変化が生まれていることを例にあげながら、AIという技術が登場し、さらに人間がそこに適応することによって、まず意図的にAIが混乱をするような「混沌」をつくるというアプローチが様々な職業で登場するのではないかと予想がなされています。

人同士が関係する中でどうしても発生してしまう社会性から生じる「感情労働」に注目し、 AIやロボティクス技術の導入によってこうした感情労働から人が解放されるのではないか?という仮説が述べられています。

ChatGPTのような自然言語対話型エージェントの課題として、あまりにも自然で流暢であるが故に「なんでもできる感」が強く、それ故にユーザが何を頼んだらいいのかわからなくなってしまったり、誤情報をあたかも事実のように喋ってしまうといったものがあります。そこで、本記事では、あえて機能を制限したり、エージェント(AI)のキャラクター設計によってユーザとエージェントの関係性をデザインすることを提案しています。

アダム・スミスの道徳論に登場する、自分と利害関係のない中立的な第三者「公平な観察者」を参照しながら、AIとの問答を自身の価値観を調律する手段として利用する方法について提案しています。少し前ならSF的に感じてしまうような、こうしたAIについての哲学的な議論がディープラーニング以降、もっといえばここ数年で登場した大規模言語モデル以降、急速にアクチュアリティを持ち始めているように感じます。

こちらもAIと哲学にまつわる記事です。ChatGPTが話題になった理由の一つである「対話形式」について、ChatGPTと私たちのやりとりの仕組みを解き明かしながら、ChatGPTの世界の捉え方を哲学的思考実験「世界五分前仮説」になぞらえています。

ChatGPTと会話していると「会話の噛み合い方」に驚かされることがあります。統計的に会話っぽくなるような言葉の組み合わせを出力しただけで、会話が成立していると錯覚してしまうということは、私たち人間同士で普段行なっている会話も、本当にコミュニケーションが成立しているのか、お互いが何となく「会話っぽいやりとり」をしているだけなのか、ふと不安になることがあります。


この記事が気に入ったらサポートをしてみませんか?