見出し画像

石丸伸二さんの賛否についてAIが思うこと

石丸さんの発言や意見は賛否あるが、客観的に評価すると実際どうなんだろう、という興味から、実験的にこんな取り組みをしてみました。

「AIが石丸伸二氏の回答を10点満点で評価」 良い子のためのGPT相談室

他にも、

「アメリカの原爆投下に対するAI評価」 良い子のためのGPT相談室

この動画を作成した意図を要約すると次の通りです。

  • 将棋やチェスでAIの評価を人間が参考にする事象が増えている。これは人類がより良い判断をするための大きなヒントではないか?

  • 人間には本当に公平無私な評価はできない

  • ChatGPTをはじめとするAIも、教師データによるバイアスが存在する。特に歴史的事実に関してはさまざまな人間の評価があり、AIの答え方にも偏りが生じる。

  • しかし、事象を抽象化して評価させることでこのバイアスを薄めることができる。

人間の評価よりは、AIの評価の方が参考になる場合がある。つまり、

AIによる評価が人間の意思決定に与える影響:人類への大きなヒント

将棋やチェスの世界では、AIが一手一手や形勢を多角的に評価することが急速に普及し、その影響は無視できないものとなっています。プロの棋士や愛好者がAIの示す最善手を参考にすることはもはや日常茶飯事です。この現象は、AIが人間の判断を補完し、より正確な決断を導く手助けをするという点で、大きな意義を持っています。これは単なるゲームの戦略にとどまらず、人類全体の進歩に大きく寄与する可能性を秘めています。

人間の限界とAIの公平性

人間は、感情や経験、個々の状況に基づいて判断を下すため、完全に公平な評価をすることは難しいです。例えば、将棋やチェスの対局中において、プレッシャーや疲労が判断に影響を及ぼすことは避けられません。その点、AIは感情に左右されることなく、膨大なデータに基づいて評価を行います。これにより、より客観的で公正な判断が可能になります。AIの評価を活用することで、人間の意思決定を振り返り、改善点を見つけることができるのです。

AIのバイアスとその限界

とはいえ、AIも万能ではありません。ChatGPTをはじめとするAIは、教師データに依存して学習します。このデータ自体がバイアスを含んでいる場合、AIの判断も偏る可能性があります。例えば、政治や特定の戦争など国際紛争については、アメリカ寄りの見解が含まれていると感じることがあります。

抽象化によるバイアスの軽減

しかし、事象自体をAIに整理させた後、架空の固有名詞などを使って抽象化することで、このバイアスを薄めることができます。具体的な局面だけでなく、全体の戦略や流れを評価させることで、偏ったデータに基づく判断を超えた新しい洞察が得られる可能性があります。これにより、人間の判断をさらに補完し、より正確で公平な決断をサポートすることができるのです。

実際、広島・長崎の原発に対する評価は固有名詞を使ったChatGPTの評価と、架空の名称に置き換えたあとの評価は180度違うものでした。(興味ある方は是非試してみてください)

結論:AIによる客観的評価の重要性

AIによる評価が、人間の意思決定を振り返るための重要なツールとなることは明らかです。人間には感情や状況に影響される限界があり、AIの客観的な視点がそれを補完します。この過程を通じて、人間の意思決定の質を向上させ、さらなる進歩を遂げることができます。AIと人間の協力が、将棋やチェスだけでなく、さまざまな分野においても大きな進歩をもたらすことが期待できるのではないでしょうか。

知識階級がそれっぽい議論をして大衆が流されるという構図に抗うことができるかもしれません。新世紀エヴァンゲリオンに登場するスーパーコンピューターMAGIを一般市民が使う世界。

この記事が気に入ったらサポートをしてみませんか?