見出し画像

人工知能標準化国際シンポジウムに参加して

前回の投稿で、2023年12月18日付で、AIマネジメントシステムの国際規格として、ISO/IEC 42001が発行されたことを紹介した。AIに関するリスクを回避するための要件やリスクが生じた場合の対応を含む信頼性の高いマネジメントシステムを構築・運用するための要求事項である。

先週(2024年7月3日~5日)、経済産業省の委託に基づき、国立研究開発法人産業技術総合研究所に設置された人工知能標準化委員会は、ISO/IEC 42001をはじめとしたAIに係る国際標準化を担当するISO/IEC JTC1 SC42の関係者や、デジタル標準の専門家等を日本に招き、日本科学未来館(東京都江東区)において、人工知能標準化国際シンポジウムを開催した。

筆者は、ISO/IEC 42001に基づくAIマネジメントシステムの適合性評価制度における認定機関(Accreditation Body)としての認定事業のニーズを探るため、シンポジウム初日に参加し、諸外国のAIに関する標準化の関係者と交流させていただいた。

最も印象的であったのは、米国とEUとのアプローチの違いであった。米国においては、NIST(国立標準技術研究所)が、2020年の国家AIイニチアチブ法に基づき、AIリスク管理フレームワーク(AI RMF)を検討してきており、大統領令(EO14110)「AIの安心、安全で信頼できる開発と利用」に基づく取組を開始したこと、そして、AIの安全性を検討するU.S. AI Safety Institute(USAISI)においてコンソーシアムを設立し、米国の半導体メーカー等も参加しているとのこと。

他方、EUは、生成AIを含む包括的なAIを規制の制定に取り組み、2024年5月21日、「EU AI ACT」(以下「AI法」と言う)を成立させた。AI法は、リスクベース・アプローチを採用しており、AIをリスクのレベルで分類し、それに応じた規制がかけられる。
私が驚いたのは、AI法第40条に基づき、欧州委員会は、遅滞なく、欧州標準化機関に対して、AIに関する「整合規格」の作成を要求しなければならないことが規定されていることだ。
これは、1980年代から継続している欧州のニューアプローチ指令の一環であろう。すなわち、強制法規の技術基準として欧州規格を引用する戦略である。

シンポジウムにおいては、CEN(欧州標準化委員会)とCENELEC(欧州電気標準化委員会)の21番目の合同委員会として、CEN/CENELEC JTC21が設立され、AIに関する「整合規格」も策定は始まったことが紹介された。

講演者の一人、JTC21の議長でもあるDr. Sebastian Hallensleben(VDE「ドイツ電気・電子・IT協会」のポートフォリオマネジャー)と、懇親会で意見交換させていただいた。EUは、AIガバナンスのために、欧州規格と適合性評価制度をバランスよく活用していくそうである。

米国は、商務省の傘下ではあるが連邦政府全体に対して、AIリスク管理フレームワーク(AI RMF)を実施させるのに対して、EUは、AI法という強制法規の執行において、標準化と適合性評価の仕組みを内在させようとしている。

日本は、米国のUSAISIに倣って、AIセーフティ・インスティテュート (AISI)を設立し、村上明子所長(非常勤)の下で、信頼できるAIの開発・提供・利用を目指しているが、日本産業規格(JIS)をはじめとする規格を活用する方針はまだ示していないようだ。

冒頭に記載した、ISO/IEC 42001 AIマネジメントシステムは、和訳されて日本産業規格(JIS)として制定されることになると予想されるが、それに基づく国内の適合性評価制度をどうするか。
ISMS適合性評価制度における認定機関であるISMS-ACとしては、AIの開発者、AIを用いたサービスの提供者、そしてAIを用いたサービスの利用者のニーズ等を探りつつ、AIマネジメントシステム等の関係者との意見交換を行っていきたい。

人工知能標準化国際シンポジウム:Trustworthy AI 実現へ向けたAI標準化 (aist.go.jp)のWebサイト】


この記事が気に入ったらサポートをしてみませんか?