AIと未来社会、私たちが進むべき道とは
皆さんこんにちは。久しぶりに更新しました。
今回はAI倫理について面白い記事を見つけたのでご紹介します。
①1つ目は、イーロン・マスク氏の記事です。X(旧Twitter)オーナーであるイーロン・マスク氏がAI技術に対し、慎重な考えを持っていることはあまり知られていませんが、彼はAI技術の開発に自らも関わりながら、文明破壊の恐れや可能性について自論を述べています。
私自身は彼のような世界的リーダーがこのような考え方を持ち、また自社でxAIという新しい人工知能、「TruthGPT」のようなものに着手しているということは有難いことであると感じます。
彼の考える「TruthGPT」とは「最大限の真実を追求するAI」といった定義付けがされており、以下の記事によれば「宇宙と自然を理解しようとするAI」といった考え方もを含んでいるそうです。
「xAI」はイーロン・マスク氏の運営する企業名ですが、「XAI」自体は、Wikipediaによると「explainable artificial intelligence」の略称であると書かれており、「説明可能なAI」という意味であるようです。
つまり、イーロン・マスク氏は一般的な人工知能が有する、ブラックボックス性や意図しない用途、不正義による利用とは一線を画した、安全で理想的な人工知能の開発をしようと考えているのかもしれません。
また最近X(旧Twitter)で「Grok2」がサービス開始し始めた、「Grok」はxAI社によって開発された、大規模言語モデルに基づいた対話型の生成的人工知能チャットボットであると言われていますが、これが「Truth GPT」となり得るのかについても注目したいところです。
②2つ目は、少し不思議な話でした。
マンチェスター大学の宇宙物理学者であるマイケル・ギャレット教授は、「高度な文明は全部AIに滅ぼされてしまうため人類と地球外文明が接触できない」という説を提唱しています。
この記事によると、グレートフィルターという概念があり、グレートフィルターは以下のように説明されています。
そしてギャレット氏は宇宙科学に関する論文を扱う査読付き学術誌であるActa Astronauticaに提出した論文で、「AIが知的文明の発展を妨げるグレートフィルターとして機能するため、星間移動ができるほどの文明が存在しない」という説を提唱したことが記事には書かれています。
どうでしょう、このような捉え方や考え方は面白いと思いますが、なんと言うか、同時に本当なんだろうか?という感覚にも陥ります。
ただ以下の引用の内容はとても理にかなっていると思いました。
つまり、AI研究をどこか違う惑星で行えば危険が分散されるから安心して研究できるのでは?というもの。これも実装するとなれば賛否があるのだと思いますが、1つの考え方としては、私の中には無かったダイナミックな仮説でした。
ここまでAIと文明危機について見てきましたが、皆さんはどう思いましたか。技術活用という実践的な現実に根ざしたアプローチとは、またスケール感が異なる話であり、面白いと感じていただけたでしょうか。
私はこの文明が衰退せず、持続可能であり続ける方法について色々と考えることがあります。
ただこれは社会全体でもっと意識的に取り扱う必要があるテーマ、トピックのような気もします。
勿論日々、世界の問題は山積みで、文明を崩壊させる要因自体がAI技術だけとも限らないわけで、例えば、核兵器や大気汚染、感染症、災害、隕石…etcなど他にも色々あるでしょう。
ただAI技術は自然災害とは異なり、人がつくり、つかうものなので、私たちの日々選択と行動の積み重ねが良い未来をつくるのかもしれません。
この記事が気に入ったらサポートをしてみませんか?