見出し画像

×われわれ vs ○先端科学技術

DX、IoT、IoA、MaaS、Society5.0、デジタルサイエンス…最近はなんだか至るところで「デジタル化」に関連したジャーゴンを耳にするようになった。ウワサによると、2045年にはAIが人間の知能をこえるらしい(=シンギュラリティ、技術的特異点)。

ぼくはド文系の門外漢なのでへえーと感心するだけだが、またいろいろととりとめのないことを考えてしまった。相も変わらずしっちゃかめっちゃかなので、とりあえず書きなぐってみる。

AI技術が超速で発展していることも、またその潜在的可能性も察しはつく。こういった先端科学技術は今後、それが良いとか悪いとかいう話とは関係なく、どんどん革新の道を突っ走っていくのだろう。だろう、というかそれはすでに現実であり、今や民間企業の域を越え、全世界が国家レベルで日々議論されている(例えば日本でも、各省庁のウェブサイトでたびたび目にするし、NEDOやJSTなどの研究開発法人でもAI研究への投資が活発化している)。

この技術がわれわれにとって有用である限りはどんどん進んでいけばいいと素直に思う。たとえばAIを挙げてみれば、そのおかげであらゆる単調作業が省かれ、合理化が促され、利便性が向上するなど、われわれの生活が物理的に豊かになることが予想されるだろう。こういう側面は、AIの「陽」といえよう。

一方、科学技術とわれわれの共存には、乗り越えなければならない問題が多々あるのも事実である。たとえば、AIが人を殺した場合責任は誰がとるのかといった法的な問題、AIが兵器として使われた場合どうするかといった脅威の問題、AIが創造したモノの知的財産権は誰(どこ)に帰属するのかといった諸権利の問題などなど。ある意味、AIの「陰」の側面といえようか。

個人的に、われわれ(特に日本人?)は今、こういった科学技術を手放しで甘受しているような気がして不安になる。またそこに鈍感さというか無神経さの臭いをも感じとって嫌悪感すら覚えてしまう。科学技術全体に対する危機感や備えがちょいとばかり薄いんじゃないの、というように。

しかしよくよく考えてみると、この負の感情は、先のような危機感や備えの欠如からくるものではないようだ。事の根っこは、われわれが「対科学技術(AI etc.)」としてではなく、「対われわれ」として考えるべき、われわれ自身の「存在」に係る危機感や備えの欠如、いわば「思想の欠如」からくるもののような気がする。

もうちょっとツッコんでみると、われわれとAIの共存を基礎づけるために、とりあえず対科学技術という枠組みを脱構築し、われわれが徹底的な内的な視野・視座・視点でわれわれ自身を見つめ、基礎づけるための「人文社会学的なアプローチ」、具体的には「形而上学的(哲学的、倫理学的)なアプローチ」が圧倒的に足りない。

「形而上学的(哲学的、倫理学的)なアプローチ」、それは「我々はなんのために生きるのか」「我々は今どうあるのか」「我々は将来どうありたいのか」「我々はなにが大切なのか」などという、つまり「”人間の人間性”を再考するオントロジー的な思索」ともいえよう。

この世に存在する多くの問題の根源をたどれば、多かれ少なかれ、禅問答のような根源的な存在論的問いに行き着くのでは…というの独断と偏見はともかく、自分が自分を定義ないし特定できない、足場がグラグラした状態なのに、相手と(しかもその潜在性の限界がみえない相手と)対峙することができるのか。今後台頭する、あるいは台頭したAIと対峙した状況下におけるわれわれの存在意義や存在価値ってなに?大丈夫?

その意味で、上述した切り口のような「われわれの内省的な態度」から出発することこそが、われわれとAIの共存を基礎づけ、結果AIなどの先端科学技術が孕む諸問題の解決の糸口になると考えている。

まあそういうことを考えるのがお仕事である学者先生たちやお歴々にとっては何を今更と一蹴されるだろう。実際に、日本政府はこんな原則を打ち立てている。

人間中心のAI社会原則 - 内閣府ホームページ
https://www8.cao.go.jp/cstp/aigensoku.pdf

ただそれを読んでも、どうも腑に落ちない。伝えたいメッセージはわかったが、じゃあ実際にこれがどう活用されるの?というプラクティカルな疑問はさておき、その「人間」は現在どうあって、将来どうあるべきなのか、から出発して、何が大切なのか、何を守らなければならないのかといった、われわれの倫理や社会制度の議論へと発展していくのでは?という疑問への答えは、このpdfからは読み取れなかった。

まあなんだ、とりあえず科学技術だろうがなんだろうが、心の平和という精神的な安寧が得られる社会になってくれればそれでいいや。おわり。

この記事が気に入ったらサポートをしてみませんか?