見出し画像

自民党AIの進化と実装に関するプロジェクトチーム「日本のAI戦略のあり方や政策提言について」

AIは学習で量が質を変える現象「相転移」を踏まえて、DFFTコンセプトに基づく「国際データ流通網」をAIに広げていくことについて触れました。

日本のAI戦略のあり方

日本はノーベル賞を28人も受賞している優秀な人材が育つ国です。2011年に国立情報学研究所は人工知能分野を再統合することで新たな地平を切り拓くことを目的にプロジェクトが発足しております。この現状から、AI政策を紐解いていきたいと思います。

「ロボットは東大に入れるか?そのためにクリアすべきいくつかの課題」


宮尾祐介 国立情報学研究所 コンテンツ科学研究系 准教授 総合研究大学院大学 複合科学研究科  情報学専攻 准教授 「東ロボ」サブプロジェクトディレクター

実用面でも、プロジェクトの成果は将来的には、意味に基づく検索や対話システム、実世界ロボットのインタフェースなど、汎用的なシステムに応用されていくことになるでしょう。「東ロボ」では研究分野が多岐にわたるため、NIIがデータ整理やプラットフォームの構築など環境整備をし、国内外の研究者を巻き込んで目標を達成したいと思っています。今後はさらにオープンプラットフォームを構築し、一般の人も参画できるしくみをつくっていきますので、我こそはと思う人はぜひ挑戦してください。

「グランドチャレンジ「東ロボ」は社会に何をもたらすのか」

稲邑哲也 (左) 国立情報学研究所 情報学プリンシプル研究系 准教授 総合研究大学院大学 複合科学研究科 情報学専攻 准教授 「東ロボ」サブプロジェクトディレクター
武田浩一 (中央) 日本アイ・ビー・エム株式会社 東京基礎研究所 ナレッジ・インフラストラクチャ担当 技術理事
西田豊明 (右) 京都大学大学院 情報学研究科 知能情報学専攻 教授

人間の五感をコンピュータに取り入れていく可能性を検討し始めています。味覚や嗅覚などの生理学的な情報を、数値的な計算に取り入れるのは難しいことです。しかしそれができたら、より人間に近い思考や知能が実現できるかもしれません。さらに言えば、身体的な感覚が、人間の常識の形成に関わっていたり、人間の心や感情に影響を与えたりするものならば、これからの情報技術の世界には欠かせない要素となるはずです。

「数学・物理の入試問題に解を与える人工頭脳と、その応用技術への期待」

穴井宏和(左) 国立情報学研究所 客員教授 株式会社富士通研究所 ITシステム研究所 主管研究員 九州大学 数理学府・MI研究所 教授
松崎拓也(中央) 名古屋大学 大学院工学研究科 准教授
横野光(右) 国立情報学研究所 社会共有知研究センター 特任助教

例えば、テーブルの上を転がるものを見たとき、人はとっさに手を出してテーブルから落ちないようにします。ところが、今のロボットは、転がっているものを認識できても、物理の法則に従ってそれがテーブルから落ちることまでは予測できません。人工頭脳が進展すれば、実世界の状況を理解し、物理法則に従って変化する事象を物理シミュレーションによってモデル化し、将来を予測することもできるでしょう

「問われるのは意味を理解する力。暗記だけでは解けない社会科科目」


金山 博 日本アイ・ビー・エム株式会社 東京基礎研究所 主席研究員
渡邉 陽太郎 東北大学 大学院情報科学研究科 システム情報科学専攻 知能情報科学講座 情報伝達学分野 助教
田 然(Ran TIAN) Google

大量のデータから知識を生み出すことで、人間の知的活動をサポートする技術を実現したい(金山氏)
ウェブ上にある膨大かつ混沌とした情報を目的に合わせて整理したり、真偽判定を助けたりするシステムに結びつけていきたい(渡邉助教)
最終的には人間の思考プロセスをコンピュータで実現できるようにしたい(田特任研究員)

「若い世代が語る東ロボプロジェクトへの期待」

小松弘佳(左)東海大学付属望星高校 2年
松村泰宏(右)東京大学 理I 2年
新井紀子 国立情報学研究所 社会共有知研究センター長 情報社会相関研究系 教授 「東ロボ」プロジェクトディレクター

人間の知的活動のどこが機械化可能であるかは、デカルトやホッブズの時代から哲学的に捉えられてきた問題です。チューリングが計算機の理論をつくった20世紀前半、この問題は哲学を離れ、工学分野の問題として捉える枠組みができました。そこから人工知能研究が進んだのですが、1980年代にやや大きな挫折がありました。当時はまだ計算力が弱く、データもなく、環境が十分に整備されていなかったのですね。それで課題が細分化されていきましたが、この問題はおそらく、30年に1 回統合し、その時代の技術でやれるところまでやり、次の時代につないでいくべきものだと思います。ここで一度、統合して考え、できることとできないことを洗い出す。できなかったことは、30年後まで寝かせておけばよいのです。

「わかる」という体験

影浦 峡 東京大学大学院 教育学研究科 教授

ここで「わかる」ことはあくまで知的な体験ですから、「没頭する」ことも、感性的にではなく知識に関わる明晰で論理的なプロセスとして捉えることが最初の 入り口になります。「わかる」ことを、情報の操作と処理に還元するのではなく「腑に落ちる」ことへ向けてどこまで明晰に辿れるか

「東ロボ」の研究成果

これまで蓄積された人工知能の各要素技術の精度を高め、情報技術分野の未来価値創成につなげるとともに、人間の思考に関する包括的な理解を深め、日本における学際的な知識・先端技術を集積、国際的な連携も行ってきました。

AIは学習で量が質を変える現象「相転移」を踏まえて、先ずはDFFTコンセプトに基づく「国際データ流通網」をAIに広げていくことがありました。
そこで「東ロボ」の研究成果を踏まえて、次はG7で国際的な連携のもと真のOpen AIを実現すべきだと考えます。

AIガバナンス 原則から実践へ

AIに関連する様々な社会的課題の解決を目的として、データエコノミーやAI倫理・ガバナンスに係る国内外の有識者、専門家等が集い、AIの普及・利活用の鍵となるデータの利活用・流通に関する議論を行うとともに、国際的な動向も踏まえつつ、AIに係る規制やガバナンスの在り方等に関する議論を行うシンポジウムが開催されました。

国際シンポジウム「AIネットワーク社会フォーラム2022」

データ経済において、サイバーとフィジカルのデジタルツインと人間の知識生産の関連性を確立することが重要であり、データ共有については、ビッグテック企業の間でデータ転送プロジェクトの設立に向けた動きがある。そこで、ビッグテック企業によるグローバルデータの独占により、過剰な市場権力の集中を危惧している。
一方で中国は、異なる政治体制の下で、AIオートクラシーの急速な発展が見られる。
すなわち、世界経済において「3つのデータエリア」の出現するだろう。
アジア太平洋地域(特に日米)や大西洋地域の信頼関係との間で、データの自由な流れに関する新たな取り決めを期待したい。

特別対談 「 AI・データ産業革命 」を参考に筆者が要約
岩田 一政/日本経済研究センター理事長、ローラ・フェルトカンプ/コロンビア大学 教授

すなわち、世界経済はAIによってサイバーとフィジカルのデジタルツインと人間の知識生産の関連性が確立されようとしております。

AIガバナンスのエコシステム

一度普及してしまった技術は制御するのが難しい・・・ChatGPT
技術が社会で使われる前にその影響力を予測することは難しい・・・GPT-5
このようなコリングリッジのジレンマを踏まえ、設計の段階から影響の想定を行うリスクアセスメント&コントロールを確立し、「社会実験」ではなく「実験社会」を目指すことが必要だと考えます。
出典:AIと共生する世界に向けたガバナンス 江間 有沙(東京大学 未来ビジョン研究センター 准教授)

AIと共生する世界に向けたガバナンス
江間 有沙(東京大学 未来ビジョン研究センター 准教授)

G7で国際的な連携の元でAIの共同開発を主導

振り返ると「東ロボ」の研究成果によって、日本における学際的な知識・先端技術を集積、国際的な連携も行ってきました。そして、AIは学習で量が質を変える現象「相転移」を踏まえて、DFFTコンセプトに基づく「国際データ流通網」をAIに広げていきます。 そこで、G7で国際的な連携の元でAIの共同開発を主導し、真のOpen AIを実現するべきだと考えます。

G7群馬高崎デジタル・技術大臣会合

大臣会合では、「信頼性のある自由なデータ流通(DFFT(Data Free Flow with Trust))」に関し、G7を中心とした各国と協力しつつ、各国規制を尊重しながら透明性を高め、相互運用性を確保するとともに、官民連携を通じて、推進していくための枠組みについて議論するほか、デジタル化をめぐる様々な課題や可能性について取り上げる予定です。

デジタル大臣 河野 太郎

信頼と人工知能

自動運転車、スマート ビルディング、自動健康診断、セキュリティ監視の改善などの進歩が期待される人工知能 (AI) 革命が到来しています。実際、多くの人々は、音声コマンドを使用してインターネットを検索したり、電話をかけたり、リマインダー リストを作成する「パーソナル」アシスタントとして AI を生活に取り入れています。それらのシステムが AI であることを消費者が知っているかどうかは不明であるものの、これらのシステムへ依存することは、ある程度信頼できると見なされることを意味します。現在、AIシステムの信頼性を評価するために、「正確性」「信頼性」「説明可能性」など、システムの特性を測定する取り組みが多く行われています。これらの特性は必要ですが、AIシステムがシステム要件を満たしているから信頼できると判断しても、AIの普及は望めません。最終的にシステムに信頼するのは、AIの影響を受けるユーザーである人間なのです。

自動化されたシステムに対する信頼の研究は、以前から心理学の研究テーマとして取り上げられてきました。しかし、人工知能システムは、ユーザーの信頼に固有の課題をもたらします。AIシステムは、膨大な量のデータのパターンを使って動作します。もはや、人間の仕事を自動化するのではなく、人間ができない仕事を自動化するのです。さらに、AIはその一連の信念を動的に更新する(すなわち「学習」する)ように構築されており、そのプロセスは設計者でも容易に理解することができません。このような複雑さと予測不可能性から、AIのユーザーはAIを信頼する必要があり、ユーザーとシステムの関係はダイナミックに変化しています。
信頼できるシステムの構築に向けた研究と並行して、AIに対するユーザーの信頼を理解することで、以下のことが可能になります。この新しい技術の利点を活かし、リスクを最小化するために、必要なものです。


この記事が気に入ったらサポートをしてみませんか?