見出し画像

日本のAIシステムと国際基準:国際競争力を維持するための考え方

 日本には『AI倫理の専門家』のことを『AI反対派の活動家』だと誤解している方々が存在します。しかし、実際には、AI倫理の専門家たちは、GAFAMをはじめとするテクノロジー大手のAIの先端を走っている研究者や開発者、経営責任者などです。

 例えば、2023年5月の米上院公聴会において、新興企業OpenAIのサム・アルトマン CEOと、コンピュータの歴史をリードしてきたIBMのクリスティーナ・モンゴメリーCPOが登壇しました。新興企業と老舗の組み合わせでの証言となりましたが、このような議論のベースとなるのがAI倫理です。

CEO behind ChatGPT warns Congress AI could cause ‘harm to the world’
In his first congressional testimony, OpenAI CEO Sam Altman calls for extensive regulation, including a new government agency charged with licensing AI models

By Cat Zakrzewski, Cristiano Lima and Will Oremus
Updated May 16, 2023 at 4:12 p.m. EDT | Published May 16, 2023 at 1:58 p.m. EDT

washingtonpost.com © 1996-2023 The Washington Post

 IBMはWatsonなどを通じてAIの世界をリードしています。また、IBMのホームページのAIのトップページには、IBMが推進するAIの倫理的な取り組みが明示されており、同社では、AI倫理問題に対応できるため『AIの活用を今すぐ本格化』できる旨が、以下のホームページなどに説明されています。

 一方、OpenAIは米上院議会で、『AIの監視機関の設置』と『免許制の導入』を提案しています。これはAI倫理に関して、業界全体での統一した取り組みが必要との考えからです。(The Washington Post)

 これらの専門家たちは、AIのリスクを根拠なく警告しているのではありません。AIの深層を知るからこそ、その危険性を共有し、適切な対策の必要性を訴えています。

 AI倫理専門家のリスク提言の考え方は、セキュリティ開発会社が様々なサイバー脅威を指摘するのと同じです。彼らは『インターネットは、サイバー脅威があるから使うべきではない』と主張しているわけではなく、コンピュータ利用の安全性を高めることを目的として、様々なリスク対応を行っています。

 情報漏洩リスク対策や、セキュリティ対策、プライバシー保護、著作権保護、人権問題、コンプライアンス遵守、説明責任や説明可能性などもAI倫理や情報倫理分野の一部ですが、どの専門家もAIが安全であることを前提としたシステムの導入や業務効率化のリスクを指摘しています。AI倫理の専門家は、システム開発や導入前に、AI倫理問題のリスクを確認し、それに基づいてシステムを構築することを強く勧めています。これらの問題を無視したままの技術開発は、将来的に大きな課題となり得るため、事前の対策やルール整備が必要です。

 OpenAIのアルトマンCEOがAI倫理に対する監視機関の設置や、免許制の導入の必要性を米上院議会で訴えているのは、法律や監視機関が存在していないと、社会問題が発生した場合の責任を自社で負うことが困難であることや、AIに関する法整備ができていないと、開発したAIシステム普及後に当該システムの違法性などを指摘されると、事業が成り立たなくなる可能性があるためです。

 OpenAIが法制度の整備や、監視体制の確立や、免許制度の導入を訴えている背景を理解できていない人が多いですが、これは、例えば、道路交通法や建築法が、運転や建築を禁止するためではなく、安全性を確保するために存在しているのと同じことです。

 AIを普及させるうえで、最も焦点が当てられているのは、AIの進化に合わせた法的枠組みの構築です。国際的なAI倫理ガイドラインの整備が急募される背景には、AI技術の急速な進展があります。

 日本国内でのみ稼働するAIシステムであれば、国内法の範囲のみでの対応で済みます。しかし、海外に製品を輸出、あるいは、インターネット上でサービス提供することが前提であれば、国際基準に沿ったシステムを開発し、最も厳格な基準を満たす必要があります。日本国内の法制度や基準のみを前提とすると、将来的には、国際的な競争力を失う可能性があります。

 AI倫理問題に取り組む専門家の極一部の例を以下に挙げます。
 
ジョイ・ブォロムウィニ(Joy Buolamwini)
 アルゴリズム・ジャスティス・リーグの創設者であるブォロムウィニは、MITメディアラボの研究員として、AI技術のバイアスや不公平性を研究しており、公正性を向上させる方法を提案しています。特に、顔認識技術の人種やジェンダーに関するバイアスに関する彼女の研究は注目されています。
 
キャシー・オニール(Cathy O'Neil)
 数学者かつデータ科学者のキャシー・オニールは、アルゴリズムに関する倫理的問題を深く探求しています。彼女の著書『Weapons of Math Destruction(邦題:あなたを支配し、社会を破壊する、AI・ビッグデータの罠)』では、ビッグデータとアルゴリズムの社会的影響及びその対策について解説しています。

スチュアート・ラッセル(Stuart Russell)
 カリフォルニア大学バークレー校計算機科学教授、オックスフォード大学名誉フェロー、世界経済フォーラムのAIとロボット工学審議会副議長国連の武器管理アドバイザー。アメリカ人工知能学会、計算機学会、アメリカ科学振興協会のフェローなどを務め、AIの安全性と道徳性を重視しています。彼の提唱する理念は、AIが人間の価値観を尊重し、協力的に進化することです。ラッセルはAIの倫理的な議論や枠組みの策定を先導しています。彼の著書の『AI新生』などは、日本語版が出版されています。
 
ジャロン・ラニエ(Jaron Lanier)
 アメリカの著名なコンピュータ科学者で、アーティスト活動も行っているラニエは、テクノロジー業界のビジネスモデルがもたらす問題、特にプライバシーや自主性の侵害について指摘しています。彼の著書には、デジタル技術の危険性や社会的偏見の問題などが詳細に述べられています。また、VR技術の先駆者として、その技術が人間の感覚や経験、そしてコミュニケーションの可能性にどのような影響を与えるかについての研究も行っています。
 
ウェンデル・ウォラック(Wendell Wallach)
 イェール大学生命倫理学術センター長のウォラックは、AIやロボット技術の倫理に関する研究を専門としています。彼は技術的な発展に伴う責任や倫理的取り組みの重要性を強調しています。彼の著書は『ロボットに倫理を教える―モラル・マシーン―(共著)』や、『人間VSテクノロジー:人は先端科学の暴走を止められるのか』などが、日本語でも出版されています。
 
ジェフリー・ヒントン(Geoffrey Hinton)
『AIのゴッドファーザー』として知られるヒントンは、2023年5月にGoogleを退職し、AIの危険性について公然と議論する姿勢を取っています。以下のWIREDでのインタビューにおいて、彼はAIの未来とそのリスクについて語っています。

 AI倫理の議論の中心は、哲学者や法学者たちだけではなく、AI技術の開発や研究を行ってきたトップクラスの専門家たちです。上に挙げた人々は、日本でも知名度が高く、マスメディアにも頻繁に登場しています。英語論文を検索すると、上記以外に多数の世界トップクラスのAI開発者や研究者が、AI倫理問題に取り組んでいることがわかります。



この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?