見出し画像

AI倫理問題の理解に必要な背景知識(1)

AI倫理問題への対応が急務
 
 近年、文理融合の重要性が認識され、日本国内では早稲田大学や慶應義塾大学などが文理融合学部を設立しています。しかし、AI倫理は新入社員がすぐに取り組めるほど簡単なテーマではありません。彼らが卒業し、社会人として十分に通用するまでには、おおよそ10年近くかかると考えられます。このため、AI倫理への対応は待ったなしの状況となっています。
 
 そのため、現在企業の第一線で活躍している文系と理系の社員が、互いの専門分野を補い合いながら、AI倫理への対策を行うことが急務となっています。例えば、文系の社員は技術的な知識を、理系の社員は倫理的な視点や人文科学的な知識を習得することで、それぞれが苦手としている分野を補完し合うことが求められています。
 
 今後、AIやテクノロジーの発展に伴い、文理融合的な思考が不可欠となります。教育やビジネスの場で文理融合を重視し、多様な視点を持った人材が活躍することが求められています。個々人が他分野にも興味を持ち、学びを続けることが重要です。
 
 このような状況を踏まえて、現在の企業や社会において、AI倫理への対応がどのように進められるべきか、そして、それぞれの専門分野が補完し合う形でどのように協力していくべきかについて、本稿で解説していきたいと思います。

倫理学の歴史

 このブログでは、コンピュータが苦手な読者向けに、コンピュータ技術者であれば知っていて然るべきレベルのコンピュータの歴史について、さわりの部分を説明しました。
 
 そこで本稿ではAI倫理課題を論じる上で、コンピュータのことは理解していても、倫理のことは専門外だという読者向けに、倫理の歴史や、倫理学の発展に大きな役割を果たした人物について、軽く言及します。
 
 歴史的重要人物を理解していないと会話すら通じないことは、SI単位系のHz(Hertz)、N(Newton)、Pa(Pascal)、J(Joule)、W(Watt)、C(Coulomb)、V(Volt)、F(Farad)、T(Tesla)などが、全て歴史上の科学者の名前であることからも分かる通り、この程度の歴史的人物に関しては、中学生レベルでも理解していて然るべきです。このレベルが理解できていない相手と電気工学や電子工学の話しをしても一切通じないのと同じで、倫理に関しても、倫理学を確立した歴史的人物や、その思想について理解していなければ、AI倫理の会話は成り立たないはずです。
 
 哲学者であれば、ソクラテス、プラトン、アリストテレス、デカルト、カント、ヘーゲル、ニーチェ、サルトルくらいは知っていても、倫理学者と言われると、『えっ?』と頭を抱えてしまう人は、エンジニアやプログラマーやセキュリティ技術の専門家には意外と多いかもしれません。
 
 倫理学が何であるかという根本的な概念を理解するためには、哲学と倫理学は何が違うのかを理解すると、倫理学的観点に基づき、何をシステム設計のコンセプトとして取り組むべきかという指針を考えることが可能になります。
 
 哲学と倫理学は、ともに人間の思考や行動に関する問題を扱う学問ですが、それぞれ異なる視点や範囲で研究が行われています。ここでは、哲学と倫理学の共通点と相違点について解説します。
 
 まず、共通点としては、両者ともに人間の価値観や行動原理に関心を持っていることが挙げられます。哲学は広範な視点から、人間の存在や認識、道徳、美、社会などを問い、理性や知性によって解明しようとする学問です。
 
 一方、倫理学は、より具体的に人間の道徳的行動や価値観に焦点を当て、善悪や正義、責任、義務などの概念を明らかにし、人間がどのように行動すべきかを考察する学問です。
 
 次に、相違点について説明します。哲学は存在論や認識論、美学、政治哲学など、様々な分野にまたがる幅広い学問です。それに対して、倫理学は哲学の中の一部門として位置づけられることが多く、道徳的な問題に特化した研究が行われています。また、哲学は抽象的な問題を扱うことが多く、人間の本質や意識、実在などを探求するのに対し、倫理学は現実の社会や人間関係における道徳的課題を考察するため、より具体的な問題に対処することが特徴です。
 
 以上のように、哲学と倫理学は共通点と相違点を持ちながら、人間の価値観や行動原理を探求する学問として、それぞれ重要な役割を果たしています。

 倫理学は哲学の幅広い漠然とした概念の中から、特定の課題を絞り込んで、解決策を示すものだと捉えると、前述の偉大な哲学者たちは、哲学者であると同時に倫理学の成り立ちでも多大な影響を与えていることが分かります。
 
 AI倫理の各論に入る前に、まずはAI倫理以前に知っておくべき、AIの哲学的課題にはどのようなものがあるかについて考えてみましょう。AIに対する哲学的課題の代表例として取り上げられるのは、まずは、AIの意識(consciousness)の問題です。
 
 哲学的なアプローチでは、AIが人間のような意識を持てるのか、あるいは意識を持つことは人間だけに特有の性質なのかという問いが存在します。これは、哲学の分野で長年議論されてきた意識の本質や起源に関する問題と関連しており、AIが意識を持てるとすれば、それはどのような形で実現されるのかという問題があります。
 
 また、AIと自由意志の問題も哲学的課題として注目されています。AIが独自の判断や選択を行う能力を持つとすれば、それは自由意志と呼べるのか、それとも単に複雑なアルゴリズムに基づく計算に過ぎないのかという問いが生じます。これは、人間の自由意志についての哲学的議論と密接に関連しており、AIの自由意志をどのように捉えるべきかという問題は、現代の哲学者にとって重要なテーマとなっています。
 
 更に、AIの道徳的責任や法的責任も、哲学的課題の一つです。AIが道徳的判断を行い、行動する能力を持つとすれば、その結果に対して道徳的責任を負うべきか、またどのように法的責任を課すべきかという問題が生じます。この問題は、AIの発展に伴い、増々重要性を増していると言えるでしょう。
 
 これらの哲学的課題は、AI倫理を考える上での基礎となります。AIが意識や自由意志を持つ可能性を理解し、その結果に対する責任をどのように考えるべきかを明らかにすることが、AI倫理の議論を深めるために不可欠です。
 
 GPTの主要開発者の一人であるイリヤ・スツケヴェル(Ilya Sutskever)は、2022年2月10日にツイッターで、“it may be that today's large neural networks are slightly conscious”(今日の大規模ニューラルネットワークには、わずかな意識があるかもしれない)と発言しました。スツケヴェルは、人類の英知を超えるAGIの開発に熱心な研究者として知られており、彼のこのツイートには大反響がありました。
 
 また、GoogleのAI技術LaMDA(Language Model for Dialogue Application)のAI部門のソフトウェアエンジニアであるブレイク・レモイン(Blake Lemoine)が、AIに魂が宿るという考えを議論した話が、国内外の主要メディアで報じられました。
 
 このような『意識』、『AIの魂や意識や自己意識』、『人間の存在』、『知識』、『倫理』、『道徳』、『価値』、『理性』などに関する根本的な問いを扱う学問が、まさに哲学の領域です。
 
 AIは、機械学習や深層学習などの手法を用いて、大量のデータから知識を獲得し、新しいタスクを解決する能力を持っています。しかし、AIが獲得した知識は、人間が持つ知識と同じ性質を持つのか、それとも独自の形態を持つのかという問題があります。また、AIの学習能力には限界が存在し、未知の状況に対応する能力が十分ではないことから、知識の範囲や学習の過程に関する哲学的な問題が提起されます。
 
 これらのAIに対する哲学的な課題には、明確な答えが存在しておらず、こういった哲学的な課題が解決していない技術を、社会でどのようにして普及、活用するかについて研究し、社会に与えるインパクトや問題点に対する解決策を見出すことは、倫理や道徳の課題です。
 
 AI技術が進化し、人間の生活や社会に深く関与するようになると、AIに対する倫理的な配慮や道徳的な責任が問われることになります。例えば、自動運転車が事故を起こした際に、誰が責任を負うのかという問題や、AIが適切な倫理的判断を下せるのかという問題が存在します。これらの問題は、AIと人間の共存において重要な意味を持ちます。
 
 最後に人間とAIの関係性の問題です。AI技術が発展することで、人間のアイデンティティや人間の役割に関する哲学的な問題が浮上してきます。AIが人間の知能や能力を超越する場合、人間の存在意義や価値についての問いが再考されることになります。また、AIが人間の労働を置き換えることで、働くことの意味や人間の社会的役割に関する問題が生じる可能性があります。更に、人間とAIのコミュニケーションが増えることで、人間同士のコミュニケーションや対人関係における影響が懸念されています。
 
 古代ギリシャ哲学者で有名なソクラテス(BC470年頃~399年)の弟子のプラトン(BC427~347年頃)や、その弟子であるアリストテレス(BC384~322年)、近代哲学の創始者の一人とされるフランスの哲学者・数学者のデカルト(1596~1650年)、啓蒙時代に活躍したドイツの哲学者カント(1724~1804年)、イギリスの哲学者・政治思想家のロック(1632~1704年)、イギリスの数学者・暗号研究者・計算機科学者・哲学者であるチューリング(1912~1954年)、現代では、アメリカの哲学者・認知科学者のデネット(1942年生まれ~現在)の思考や理論は、現代の哲学や科学、思想にも影響を与えており、今なお多くの人々によって研究や議論が行われています。
 
 哲学が現代のAI倫理問題を考えるうえで重要な理由は、以下の点にあります。
 
(1) 根本的な問いの扱い: 哲学は人間の存在や価値、知識、倫理、道徳、理性などの根本的な問いを扱う学問であるため、AIが人間社会に与える影響を深く考察できます。
 
(2) 複雑な問題の分析: 哲学は抽象的で複雑な問題を分析し、理解しやすい形に整理する方法論を持っています。これにより、AIに関する難解な問題も明確に議論できるようになります。
 
(3) 多様な視点の統合: 哲学は多様な視点や理論を統合し、総合的な理解を目指す学問です。これにより、AIに関する倫理や道徳の問題に対して、多角的なアプローチが可能になります。
 
(4) 持続的な議論の促進: 哲学は歴史的に長い時間軸での議論が行われており、新しい技術や知識が登場するたびに、その影響や意義を検討し続けています。AIの発展に伴って新たな倫理的課題が生じることが予想されるため、哲学の持続的な議論が重要です。
 
(5) 倫理的な意思決定の指針: 哲学は倫理的な意思決定の基準や原理を提供できます。これにより、AIの開発や運用において、適切な倫理的判断を行うための指針が得られます。
 
 これらの理由から、哲学は現代のAI倫理問題を考えるうえで重要な役割を果たしています。AI技術が更に進化し、人間社会との関わりが深まる中で、哲学の知見や方法論が適切なAIの開発・運用や人間とAIの共存を考えるための重要な指針を提供してくれることでしょう。

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?