見出し画像

岸田首相と松尾豊:失策続出の二人組によるAI愚策の沼落ち

岸田首相、東京大で生成AIの講座受ける 「百聞は一見にしかず」
川辺真改 2023年8月14日 21時24分
 
 岸田文雄首相は14日、東京大学で生成AI(人工知能)の仕組みや動向について、AI研究の第一人者である松尾豊・東大大学院教授の講座を受けた。AIを学習させるプログラミングも体験し、受講後、記者団に「百聞は一見にしかず。自分の手を使って、目で見ることを通して、今までとは違った感覚で生成AIを見ることができた」と語った。

朝日新聞デジタル

 流石にロークオリティーペーパーの朝日新聞は、いまだに『AI研究の第一人者』という駄文を付け足しています。この駄文が事実であれば、世界中のAI研究者や開発者が寸暇を惜しんで研究開発に取り組んでいる局面で、『AI研究の第一人者』の貴重な時間を、パソコン音痴の岸田首相のパソコン教室の講師として時間を浪費するなど言語道断です。 

 松尾豊は岸田首相相手にパソコン教室の講師などやっている暇があれば、広島 AI プロセスなどで、最大の懸念事項となっているAI倫理やAIガバナンスの解決策に力を入れるべきでしょう。

 日本のAI関連技術が世界的に成功できるかどうかは、技術的な問題点だけではなく、どこまで国際的に厳しいAI倫理基準を制定し、その基準をクリアできるかに掛かっています。

 日本の産業の必勝パターンにはいくつか典型例が存在しますが、国際的に最も高い規制や品質基準をクリアすることで成功を収めることも、必勝パターンの一つです。例を挙げると以下のようなものがあります。

自動車産業:1970年代にHondaが、当時、アメリカの自動車業界で絶対にクリアすることが不可能だと言われていたカリフォルニア州の自動車排気ガスの規制をクリアして、米国市場シェアを大幅に上げたことは有名な話です。日本の自動車業界には、他にも他国の自動車産業ではクリアできない厳しい燃費基準や品質基準や安全基準などでシェアを挙げた例は幾らでもあります。

電子産業:1990年代後半から2000年代初頭、欧州連合(EU)はRoHS(特定有害物質の使用制限)やWEEE(電気・電子機器廃棄物)などの規制を導入しました。これに対応するため、日本の電子産業は無鉛半田の開発や有害物質の使用を制限する技術開発に取り組み成功した事例や、半導体の洗浄プロセスのフロン規制をクリアして成功した事例など多数あります。

食品産業:日本の食品メーカーは欧州や北米などの国々の食品安全基準やラベル表示基準をクリアするための研究や改良を進め、輸出を拡大しています。特に和食の人気が高まる中で、これらの基準を満たすことは重要であり、日本の技術や品質管理が高く評価されています。

医薬品産業:日本の医薬品メーカーはFDA(米国食品医薬品局)やEMA(欧州医薬品庁)などの厳しい認証基準を満たすために、臨床試験や品質管理の技術を高めています。これにより、多くの日本製医薬品が欧米の市場で使用されるようになりました。
 
家電産業:日本の家電メーカーは、世界各国で導入されるエネルギー消費効率基準に対応するため、エネルギー効率の高い家電製品を次々と開発しており、エアコンや冷蔵庫などの製品で、高いエネルギー効率と低い消費電力を持つモデルが国際的な市場で高く評価されてきました。近年の日本の家電産業の斜陽化している原因は、日本以外の家電生産国も日本と同等のエネルギー効率が実現できて、且つ、信頼性や耐久性や価格競争力が日本よりも高くなっているからです。

鉄鋼産業:日本の鉄鋼産業も斜陽産業ですが、他国が追随できない高品質な特殊鋼分野では、圧倒的な競争力を持っていました。品質データ改竄問題により日本の特殊鋼の信用は失墜しましたが、それでも日本の鉄鋼産業にしかクリアできない品質基準や安全基準は幾らでもあります。

建設・インフラ産業:日本の建設技術は、地震耐震基準や環境基準が非常に厳しいことから、これらの厳しい基準に対応した技術やノウハウの蓄積により、国際的なインフラプロジェクトでの競争力を有しています。特に、耐震技術や高速鉄道の建設技術は世界中で高く評価されています。前述の特殊鋼とも関係しますが、高速鉄道に耐えられる車輪や軸受(ベアリング)を製造する技術も圧倒的な強さを持っています。

航空産業:日本の航空機部品メーカーは、国際的な航空基準(例: FAAやEASAの基準)を満たすための高度な技術や品質管理を持っています。これにより、世界の主要な航空機メーカーとの取引が継続されています。三菱リージョナルジェット(MRJ)の失敗で、日本の航空産業は三流のイメージが定着していますが、Honda Jetや表面からは見えない航空部品の分野では、厳しい基準をクリアできているからこそシェアが確保できているのです。

農業:農産物の輸出において、日本は各国の厳しい植物検疫基準や食品安全基準をクリアするための取り組みを強化しています。これにより、日本の農産物や食品が海外での高い評価と市場シェアを獲得し始めています。農地面積が狭く、肥料もほぼ100%輸入で、家畜飼料の大半も輸入に頼っている日本が、農業輸出国になるのは非常に不利な状況であるにも関わらず、金額ベースだけでなく、カロリーや重量ベースでも輸出量を増やせているのは驚異的なことです。農業輸出プロモーションなどにどれだけ大量の税金が投入されているかはここでは無視します。

 上記の例からも分かる通り、日本が海外市場で勝ち抜くためには、規制や基準が厳しければ厳しいほど有利です。そのため、AI規制やガイドラインに関しても、日本が率先してEUよりも厳しいルールをリードできれば、日本のAI産業にとって有利な条件が整います。

 こういった日本の産業の成功パターンが分かっていない人がAI規制を考えると以下のような的外れな方向になってしまいます。

AI利用で「日本の緩い規制はチャンス」 東大・松尾教授
2023年5月12日 2:00
日本ディープラーニング協会(JDLA、東京・港)は1日、対話型人工知能(AI)「ChatGPT(チャットGPT)」などの生成AIの利用ガイドラインを発表した。日本は諸外国と比べて著作権の法規制が緩く、AIの学習に他人の著作物を利用することを認めている。JDLA理事長でAI研究を続ける東京大学の松尾豊教授は「(緩さが)競争で有利に働く可能性はある」と会見で話した。

日経ビジネス

なぜ日本は人工知能研究で世界に勝てないか 東大・松尾豊さんが語る“根本的な原因”
2018年09月18日 08時00分 公開
 
――AIを理解している研究者や技術者と、よく分かっていない官僚、経営者、管理職という分断が起きている。
 
 そういう状況で困っているベンチャー企業は、たくさんいると思いますよ。「AIはブラックボックスだから怖い」と言う人がいますが、僕からすると「ブラックボックスの意味分かってますか?」と言いたい。数式はちゃんと出ていて、数式の意味が解釈できないということなのですが、そこも勘違いしている人がいます。

[松本健太郎,ITmedia]

筆者からすると松尾豊に『ブラックボックスの意味分かってますか?』と言いたい。

 AIのブラックボックス問題は、高度なAIモデルにおいて、その内部の動作や意思決定過程が人間にとって透明性を欠き、理解し難いという問題を指します。具体的には以下のような点が挙げられます。

複雑性:モダンなニューラルネットワークは数百万、あるいは数千億~兆単位のパラメータを持つことがあります。これらのパラメータの相互作用を人間が追跡して解釈するのは非常に困難です。

非線形性:ニューラルネットワークはその性質上非線形です。これにより、入力と出力の関係が直感的には把握し難くなります。

一般的な説明の不足:AIが特定の結論や行動をとった理由を一般的な言葉で説明するのは難しい場合が多いです。

 このブラックボックス問題は、以下のような問題点や懸念を生み出す可能性があります。
 
信頼性:ユーザーやステークホルダーは、動作原理が不明確なシステムを信頼し難くなります。
 
説明責任:法的、倫理的な観点から、AIが取った行動や判断の背後にある理由を明確にしなければならない場面が増えてきています。

エラーの特定:システムが間違った判断を下した場合、その原因を特定し修正するのが難しくなります。

 上記のようなAIのブラックボックスに関する理解は、AI倫理問題、AIガバナンス、AI規制と綿密な関係があるので、松尾豊はこういったAIの基礎から勉強しなおす必要があるでしょう。

AI に関する暫定的な論点整理
(要旨)
※本論点整理は、最近の技術の急激な変化や広島 AI プロセスを踏まえて、AI 戦略会議構成員が AI 関連の論点を整理したものである。
 
基本的な考え方
〇国際的なルール構築に向けた主導的役割の発揮
・AI に国境はなく、国際的な共通理解・ルールづくり・相互運用性が重要。我が国は、「広島 AI プロセス」などを通じ、議論をリードすべき。
 
〇リスク対応の基本方針
・まずは AI 開発者・提供者・利用者等が自らリスクを評価し、ガバナンス機能を発揮する。
・必要に応じ、政府を含む多様な関係者によるリスク対応の枠組みを検討・実施する。
・既に表面化しつつあるリスクのうち、既存の法制度やガイドライン等を前提に対処できるものは、周知徹底など早急に対応する。
・既存の法制度・体制等では対応できない可能性がある場合は、諸外国の検討なども参考に対応を検討すべき。
・将来生じ得るリスクについては、そのリスク把握に随時努める。
 
〇透明性と信頼性
・AI 開発者・提供者には、現行法令やガイドラインに則り、積極的な情報開示を求めたい。
・政府は、主要な AI 開発者・提供者に対して、透明性・信頼性の確保を直接働きかけることも検討すべき。
・生成 AI の普及を踏まえ、既存のガイドラインに関して、必要な改定などを検討する必要がある。その際、諸外国における検討とも協調し、第三者認証制度や監査制度等も参考とすべき。
・顕在化したリスクを低減するような技術の研究開発・普及を奨励することも望ましい。
 
〇懸念されるリスクの具体例と対応
・機密情報の漏洩や個人情報の不適正な利用のリスク
・犯罪の巧妙化・容易化につながるリスク
・偽情報などが社会を不安定化・混乱させるリスク
・サイバー攻撃が巧妙化するリスク
・教育現場における生成 AI の扱い
・著作権侵害のリスク
・AI によって失業者が増えるリスク

AI 戦略会議構成員

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?