見出し画像

【ざっくりまとめ】各組織のAIに関するガイドライン/原理/原則

GWには何かしら書こうと思っていたので、備忘録的な意味を含め、2019年5月時点での国や企業が考えている、AIに関するガイドラインをまとめ、考察しました。


AIの定義

「AIのガイドライン」について話す前に、このポストの中での「AI」の定義について話しておかないと議論がぶれそうなので、この記事が則るAIの定義を紹介しておきます。

EUの欧州委員会(European Commission)ではAIのことを次のように定義することを提案しているので、それに乗っかって行くつもりです。

Artificial intelligence (AI) systems are software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behaviour by analysing how the environment is affected by their previous actions.
As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems).”


早速だけどまとめ

※ガイドラインは↓に書いておくので参照してください。

直接文章の中に現れるか否かはおいておいて、どのガイドラインでも言葉として、Transparency(透明性), Accountability(説明責任), Safety, Security, Privacy (安全性)Fairness(公平性)に関する記述が共通して見受けられることは非常に興味深いと感じます。

TransparencyってAccountability確保のために必要となる要素のひとつな気もしますが、多くのガイドラインで別枠で明記されているのも面白いですね。ただ、Transparency, Traceability, Accountability, Auditabilityみたいな、概念的に近しい(ないし抽象度の異なる)言葉が、各ガイドライン全体を見渡したときに、同じレイヤーに登場してるのにレベル感が違うっていうこの、なんていうんですかね… どの粒度でどの言葉を使っているのか、はっきりとしないですね... 

また多くの企業がFairnessやSocial Goodを掲げている点も見逃せません。AIが社会に与えるインパクトの大きさや、そのインパクトの良し悪しについて意識している証拠ではないでしょうか。特にFairnessはAIが学習データや学習方法のバイアスから逃れられないことを意識してのことなんじゃないかと思います。

Diversity&Includionを明確にしている企業もありますがそうでない企業もありますね。おそらくこれは、AIに関するガイドラインをどこに位置づけるかの問題なのでしょう。企業理念やポリシーなどの下位にガイドラインを設定する場合、わざわざ書かなくてもいいって判断だと思います。多分。

企業別で見ると、Googleは何をなすべきかだけでなく、何をしないのかを明確にしている点は面白いですね。Googleは軍との契約問題で社員に反発されたのもあってか、明確にWeaponsには使用しないってかいてあるのかなと思います。

また、IBMは条文がやたら少ないのは、上記の通り共通理念/ガイドラインの下部にAIに関する条文を追加しているからなのではないかと予想します。


調べてみて

1日調べた限りですが、AIに関するガイドラインには共通性がみられることがわかりました。とくにTransparency, Accountability, Safety, Security, PrivacyFairness,はキーワードになって来るかと思いますので、覚えておくとニュースを見たときなどに違った味方ができるかもしれませんね。

個人的にはじゃあそもそもFairnessってなんだよ、とか、Social Goodってなんだよとか思ってしまいます。じつはそここそしっかりと向き合わないといけない問題なのかもしれませんね。

↓にはざっくりとした引用しかしていないのですが、リンクを張っておくので気になる方は原文にあたってみてください。大学受験ぐらいの英語力が有れば読めます。


ーーー以下各ガイドライン/Principleですーーー

EU

EUが出している、Ethics Guidelines for Trustworthy AIは以下の通り。

- Ethics Guidelines for Trustworthy AI

1. Human agency and oversight
Including fundamental rights, human agency and human oversight
2. Technical robustness and safety
Including resilience to attack and security, fall back plan and general safety, accuracy, reliability and reproducibility
3. Privacy and data governance
Including respect for privacy, quality and integrity of data, and access to data
4. Transparency
Including traceability, explainability and communication
5. Diversity, non-discrimination and fairness
Including the avoidance of unfair bias, accessibility and universal design, and stakeholder participation
6. Societal and environmental wellbeing
Including sustainability and environmental friendliness, social impact, society and democracy
7. Accountability
Including auditability, minimisation and reporting of negative impact, trade-offs and redress.


Google

Googleが公開しているAIに関するPrinciple、Artificial Intelligence at Googleは以下の通り。

Artificial Intelligence at Google

1. Be socially beneficial.
2. Avoid creating or reinforcing unfair bias.
3. Be built and tested for safety.
4. Be accountable to people.
5. Incorporate privacy design principles.
6. Uphold high standards of scientific excellence.
7. Be made available for uses that accord with these principles.

GoogleがAIの利用を追求/支持しない領域は以下の通り。

- AI Applications We Will Not Pursue

1. Technologies that cause or are likely to cause overall harm. Where there is a material risk of harm, we will proceed only where we believe that the benefits substantially outweigh the risks, and will incorporate appropriate safety constraints.
2. Weapons or other technologies whose principal purpose or implementation is to cause or directly facilitate injury to people.
3. Technologies that gather or use information for surveillance violating internationally accepted norms.
4. Technologies whose purpose contravenes widely accepted principles of international law and human rights.

Microsoft

Microsoftが出しているPrincipleは以下の通り。

- Microsoft AI principles

1. Fairness
AI systems should treat all people fairly
2. Inclusiveness
AI systems should empower everyone and engage people
3. Reliability & Safety
AI systems should perform reliably and safely
4. Transparency 
AI systems should be understandable
5. Privacy & Security
AI systems should be secure and respect privacy
6. Accountability
AI systems should have algorithmic accountability

ちなみにMicrosoftはチャットBotを作るデベロッパー向けに以下のようなものも出してる。参考までに。

- Responsible bots: 10 guidelines for developers of conversational AI

1. Articulate the purpose of your bot and take special care if your bot will support consequential use cases.
2. Be transparent about the fact that you use bots as part of your product or service
3. Ensure a seamless hand-off to a human where the human-bot exchange leads to interactions that exceed the bot’s competence.
4. Design your bot so that it respects relevant cultural norms and guards against misuse.
5. Ensure your bot is reliable.
6. Ensure your bot treats people fairly.
7. Ensure your bot respects user privacy.
8. Ensure your bot handles data securely.
9. Ensure your bot is accessible.
10. Accept responsibility.


IBM

IBMの出しているPrincipleはちょっと毛色が違うかも。

- IBM’s Principles for Trust and Transparency

1. The purpose of AI is to augment human intelligence
2. Data and insights belong to their creator
3. AI systems must be transparent and explainable


MIC, Ministry of Internal Affairs and Communications

日本の総務省が出している原則は以下の通り。

AI利活用原則案

1. 適正利用の原則
利用者は、人間とAIシステムとの間及び利用者間における適切な役割分担のもと、適正な範囲及び方法でAIシステム又はAIサービスを利用するよう努める。
2. 適正学習の原則
利用者及びデータ提供者は、AIシステムの学習等に用いるデータの質に留意する。
3. 連携の原則
AIサービスプロバイダ、ビジネス利用者及びデータ提供者は、AIシスム又は
AIサービス相互間の連携に留意する。また、利用者は、AIシステムがネットワーク化することによってリスクが惹起・増幅される可能性があることに留意する。
4. 安全の原則
利用者は、AIシステム又はAIサービスの利活用により、アクチュエータ等を通じて、利用者等及び第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する。
5. セキュリティの原則
利用者及びデータ提供者は、AIシステム又はAIサービスのセキュリティに留意する。
6. プライバシーの原則
利用者及びデータ提供者は、AIシステム又はAIサービスの利活用において、他者又は自己のプライバシーが侵害されないよう配慮する。
7. 尊厳・自律の原則
利用者は、AIシステム又はAIサービスの利活用において、人間の尊厳と個人の自律を尊重する。
8. 公平性の原則
AIサービスプロバイダ、ビジネス利用者及びデータ提供者は、AIシステム又はAIサービスの判断によって個人が不当に差別されないよう配慮する。
9. 透明性の原則
AIサービスプロバイダ及びビジネス利用者は、AIシステム又はAIサービスの入出力の検証可能性及び判断結果の説明可能性に留意する。
10. アカウンタビリティの原則
AIサービスプロバイダ及びビジネス利用者は、消費者的利用者及び間接利用者を含むステークホルダに対しアカウンタビリティを果たすよう努める。



この記事が気に入ったらサポートをしてみませんか?