見出し画像

「AIと倫理」は企業の経営課題。 弁護士が強調する意味は

AIが社会にもたらす影響は、法律や政策にとどまらず、倫理規範などにも及びます。AIを開発、実装する企業は、データとどう向き合うべきなのでしょうか。

AI関連のビジネスと法務に詳しい三部裕幸弁護士は、「AIと倫理」の問題に対応していない企業は「抱えるリスクがどんどん大きくなっていく」と警鐘を鳴らします。

国内外の動向を中心に、三部弁護士が解説します。

 *

きょうは「AIと倫理」というテーマでお話します。ポイントは、次の3つです。

1. 「AIと倫理」=経営課題 
2. 国内外で「AIと倫理」を尊重する動き 
3. 「AIと倫理」について企業での取組が必要 


1. なぜ「AIと倫理」が経営課題なのか

「AIと倫理」と聞くと、善意での活動であって、経営とは無関係だと思われがちですが、全くそうではありません。企業の経営陣が真剣に取り組むべき課題です。

まず、なぜ「AIと倫理」が経営課題になるのか、その理由を述べます。弁護士の私が「AIと倫理」を語ることに違和感をもつ方も多いと思います。私自身も「AIと倫理」について活動することになるとは夢にも思っていませんでした。

欧州4カ国での調査について

画像1


このテーマに関わるようになったのは、2016年、総務省「AIネットワーク社会推進会議」の参考に供するため、AIと法律、あるいはAIと技術動向について、欧州を訪問して実地でインタビュー調査や情報収集をしてきたことがきっかけです。イギリス・ルクセンブルク・ドイツの大学・研究機関・企業・法律事務所等を訪問してお話を伺いました。さらに2018年にも同会議のメンバーとしてイギリス・ドイツ・フランスを回り、現地のAIネットワークに関する法制や動向について調べました。

AIに関する調査でしたので、テックドリブンな話になるだろう、仮に法律の議論になるとしても技術寄りの話になるだろうと予想していました。しかし、全然そうではなかった。

画像2

話を聞いた4カ国の研究者や企業の方々、法律家は、文字通り口をそろえてこういいました。

「日本が、どれだけ優れた技術力を駆使してAIの製品・サービスを作っても、倫理(Ethics)を考慮しないとEUでは受け入れられないリスクがある。日本の方々にそう伝えてほしい」

日本と共同研究や意見交換をすすめている機関の中には、「日本側と話すと技術やサービスについてはやりとりできるけれど、『AIと倫理』の観点がまったく出てこない。一緒に研究やビジネスをするのは正直、心配な面もある」という印象を抱いているところもありました。

つまり日本企業にいくら優れた技術などがあっても、日本企業が創り出すAIの商品やサービスがEUで広く受け入れられている「倫理」を考慮していないと、EUではその商品やサービスが売れない、受け入れられないという恐れがある。EUの企業や研究機関から見れば、日本と一緒にビジネスをしても大丈夫だろうかと感じてしまう。だから、「AIと倫理」についてのEUの考え方を日本の人々に伝えてほしいと頼まれたのです。

「AIと倫理」というテーマにおける「倫理」 (Ethics)という概念の幅広さ

画像3

では、ここでいう「倫理」 (Ethics)とはどんなものでしょうか? 現在「AIと倫理」というテーマで議論されているのは、いわゆる倫理学上の倫理とは異なるものです。また、AIとの関連での「倫理」について、定説的に通用するような学問上の定義があるわけではないと思います。現在議論されていることの共通項を私なりにまとめると、「倫理」とは「人類が長い歴史の中で営々と築き上げてきた大事な価値観」となると思います。

具体的には、人間性の保持やプライバシーの保護、平等、安全性の確保などです。たとえばAIに過度に依存すると人間性が失われてしまわないか、という懸念についてさまざまな業界・機関・団体等で議論され始めています。

また、データの漏えいやプライバシーの侵害も懸念されていますし、チャットボットが差別的な発言をしないか、スコアレンディングでAIが人間では思いつかないような情報や要素をもとに不当な貸付け拒否をしないか、といったAIによる新たな差別なども懸念されています。

安全性に関しては自動運転の車が実証実験中に人をはねて死なせた事例がすでに起きています。AIの透明性ないし説明可能性やセキュリティなども、「AIと倫理」というテーマで語られることが増えています。

典型的なのが4月8日、EUから確定版が公表された「信頼できるAIのための倫理ガイドライン」です。この中には、「倫理」と聞いて想像するよりかなり広い要素が含まれ、なおかつ先ほど述べた大事な守るべき価値観が盛り込まれていました。

この後で述べる国内外での一連の動きで共通するのは、「けしからんから規制をかけたい」という議論ではなく、この大事な価値観をみんなで守っていこう、その方がAIの発達に資するから、という考え方です。

「AIと倫理」を尊重しないと、法的リスクが生じる。

こうしたAIでの倫理という分野に、なぜ私のような弁護士が入っているのか。理由は、たとえばプライバシーが侵害されたり安全性が守られなかったりといった、倫理が尊重されない事態、あるいは侵害されるような事態では、法的なリスクが発生するからです。

たとえば、自動運転の車にはねられた被害者から損害賠償請求の裁判を起こされたり、その事故のために刑事罰や行政罰を企業や関係者が受けたりすることは、十分想定されます。また、AIを利用した画像分析などにより許容限度を超えてプライバシーを侵害された人、情報を漏洩された人などからクレームなどを受けることで、ビジネスが阻害されるかもしれない。ひいてはレピュテーションリスクにつながって事業そのものが続けられなくなることも十分考えられます。

これらのリスクを考えると、「AIと倫理」は、善意で行うような事項ではなく、企業のトップをはじめとする経営陣が率先して取り組むべき経営課題だということは明らかです。

2. 国内外で「AIと倫理」を尊重する動き

「AIと倫理」を尊重する動きは、すでに国内外で始まっています。スライドに載せたのはあくまで一例で、ほかにもいろいろな動きがありますが、ここではスライドに書いたものを中心にみていきます。

先ほど、日本企業に「AIと倫理」の重要性を広めてほしいと欧州側が述べたと話しましたが、実は「AIと倫理」の問題に先鞭をつけたのは日本でした。

2016年5月の「伊勢志摩サミット」に先立ち高松市で行われた同年4月の情報通信大臣会合で、日本の総務省がAIの開発などの原則を策定して国際的に議論すべきだと提案し、各国の賛同を得ているのです。そこには、「AIと倫理」のテーマで語られている事項が含まれています。その後、2017年に総務省が「AI開発ガイドライン案」を、続いて2018年に「AI利活用原則案」をまとめ、それぞれOECDに提案しました。

国際的なAIに関する議論の流れは、ほかならぬ日本が作り出したのです。さらに、2018年12月には政府が「人間中心のAI社会原則」案を作り、翌2019年3月に確定してさらに議論が深まりつつあります(注:コロキアム後の2019年6月、日本を議長国として茨城県つくば市で行われたG20の貿易・デジタル経済大臣会合でも、AI原則などAIについて議論されました)。

日本を始め各国からの動きを受けたOECDは、AIに関する専門家会合(AIGO)を発足させ、原則をとりまとめ中です(注:コロキアム後の2019年5月に原則をまとめて公表しました)。

画像4

日本以外では、たとえばEUがハイレベル・エキスパート・グループ(AI HLEG)というAIの有識者による会合を立ち上げています。2018年12月に、その会合が「信頼できるAIのための倫理ガイドライン案」をまとめ、パブリックコメントを経て2019年4月にガイドラインとして確定しました。今後は、企業がガイドラインを守ってもらうための具体的な方法を1年かけて議論し、方策を打ち出すという段階に進んでいます。

企業にも動きが出てきた

「AIと倫理」の問題を意識し尊重しなければビジネスとして高いリスクを抱えることになると認識している企業は、「AIと倫理」に関する自社・企業グループのガイドラインや原則を作り始めています。さらには「AIと倫理」を含むAIに関するリスク対策のための特設部署を設置し、専門家と議論してリスクマネジメントに着手する企業も現れ始めています。

画像5


なかでも先進企業は、具体的な「AIと倫理」のビジネスへの組み込みの検討に着手し始めています。欧州は先進企業が各倫理項目の課題抽出などを始めており、プライバシーやデータの適正利用など自社にとって重要な項目を洗い出して対応する動きが加速しているようです。

たとえば自動車産業が盛んなドイツでは、安全性に重きを置いて対応している研究機関があります。また、車をサービスに使うという観点からは、データのセキュリティや個人情報保護などにも神経を使っているようです。

北米は、GAFA(Google、Amazon、Facebook、Apple)などニュースになりやすい企業が多く、「AIと倫理」の問題に対応せざるをえない状況となっています。政府側でも動きがあるのですが、企業や企業団体の議論が先行しているように感じられます。

日本でも、ただ単にAIに関するポリシーを作成してコーポレートサイト上で発信するというレベルを超えて、安全な製品を開発するために、どのように研究開発ステージで「AIと倫理」の問題を織り込んで作っていくかを考え始めた企業がすでに現れています。

これらの動きの大きなターニングポイントになったのは2018年でした。この年から国内外で、多くの企業がさまざまな動きを見せています。今後その動きがより加速するのは間違いないでしょう。やはり、「AIと倫理」の問題に対応していない企業は、抱えるリスクがどんどん大きくなっていきます。

3.「AIと倫理」について企業での取組が必要

以上をふまえて、最後のポイントである、「AIと倫理」は経営課題である以上、企業としてどう動くべきかという課題について述べます。

画像6

まず大切なのは、各ビジネスで一定の検討プロセスを踏むことです。すなわち、自社が取り組もうとしていることはなにか、その特性とはなにか、誰と組んでどのような製品・サービスをつくってどう売るのか、そのときのステークホルダーは誰か。こうした視点で事実を認識するのがスタート時のポイントです。

次に、それぞれのAIビジネスで重要となる倫理(価値観)を認識することです。先ほど、自動運転ではドイツに安全性を重視している機関があると述べました。自動運転との関係では、安全性やセキュリティなどが重要になります。これに対して、スコアレンディングを行うときには、ほかの倫理的要素の検討を行いつつも、平等ないし公平性の問題を検討することが大切になります。たとえば、金融機関が融資の可否を判断する場合、本来介在させてはいけないような不当な事実を理由に融資を断る、という差別的な行為は、それが人間が意図していなかったことだったとしても、確実に問題になります。

このように、手がけるそれぞれのAIビジネスの中でどの倫理(価値観)がどの程度重要かを確定します。そのとき日本や欧州などから提言されているガイドライン・原則等に基づいて、行おうとするAIビジネスについてのリスクの種類・内容・程度を把握し、対応策を立てることが大切です。

ただ、AIの場合には、対応策を立てづらいものもあります。たとえばブラックボックスなどの説明を要求されたときには、各種ガイドラインに定められている内容をもとに説明しようとしても、うまくいかないことがあるでしょう。その場合、「現状ではここまでは説明できる」というラインを確定することが重要です。

ちなみに、今はEUの倫理ガイドラインでこの点についての「ブラックボックスについて説明が困難ならデータのトレーサビリティや監査がどこまで可能か」などの指針が示されています。

日本の総務省の会議でも、こうした問題に配慮しつつ、対応可能な具体的な指針作りに取り組んでいるところです。

ここで重要なのは、これらすべての問題に対応しようとすると、社内のAIの開発ないしはサービスを売る部門、法務などの部門だけでは全然足りないことが多いということです。経営企画やリスクマネジメント、人事などのさまざまな視点を取り入れない限り、リスクの適切な認識や対応ができず、危機にさらされやすくなります。そして、必要な情報が適時適切に経営陣や監査部門に共有される仕組みがなければ、リスクの予防・対処が難しくなります。

AIは、結果の予測が容易な通常のシステムとは異なるものであるため、そのリスク予防・対処は欠かせないと思います。

ABEJAはこの春から「ABEJAコロキアム」を始めました。識者や実務家を講師に招き、記者や編集者たちが社会とテクノロジーの交差点にあるテーマを議論する「学びの場」です。第1回(2019年4月25日)のテーマは「広がるデータ規制 企業はデータとどう向きあうべきか」。本記事はその模様を編集しています。

画像7


三部裕幸(Hiroyuki Sanbe)/渥美坂井法律事務所・外国法共同事業 パートナー、弁護士・ニューヨーク州弁護士。総務省「AIネットワーク社会推進会議」AIガバナンス検討会メンバー。M&A・投資・証券発行・個人情報保護など幅広い企業法務を取り扱いながら、IoT・AI・Fintech などの最近のイノベーション分野に携わる。企業におけるAIに関する法的・倫理的リスクマネジメント全般をサポートし、社内体制づくりや個別のAIビジネスについても法的サービスを提供している。

取材・文・写真:山下 久猛 編集:川崎 絵美

Torusバナー3

Torus(トーラス)は、AIのスタートアップ、株式会社ABEJAのメディアです。テクノロジーに深くかかわりながら「人らしさとは何か」という問いを立て、さまざまな「物語」を紡いでいきます。
Twitter Facebook

【Torusの人気記事】
未来食堂・小林せかいさんが向き合う 「正しさ」への葛藤
「貧困の壁を越えたイノベーション」。湯浅誠がこども食堂にかかわる理由
「当事者のエゴが時代を変える」。吉藤オリィが参院選で見たある風景
人気ブックデザイナーが考える 「いい装丁」とは?
イタリア人医師が考える、日本に引きこもりが多い理由
「僕は楽しいからそうする」。大学の外で研究する「在野研究者」たち
「性欲は、なぜある?」が揺るがす常識の壁



この記事が気に入ったらサポートをしてみませんか?