人とテクノロジーの間の責任の所在をどう考えればいいのか

※このnoteは学術系クラウドファンディングサイト「academist(アカデミスト)」さんで実施させていただいている、
人とAIが健全な関係性を築くために、技術と社会の両軸を横断したい」というクラウドファンディングに関するものです。2020年3月16日19時まで、ご支援をお待ちしております!

こんにちは。中尾と申します。
いつも応援していただいている皆さま、ご支援いただいている皆さま、ありがとうございます。

クラウドファンディング、残すところあと2日です。おかげさまでまたご支援いただき、達成率166%となりました。セカンドゴールの200%まで、あと17%となりました。セカンドゴール達成まであきらめずにやっていきます!よろしくお願いします!

毎日更新noteの4回目、本日は人とテクノロジーの間の責任の所在をどう考えればいいのかということについてです。

人工知能(AI)の話題が盛んになり、AIによって引き起こされた過失は誰の責任なのか、という議論がよくなされるようになりました。

従来、一度作ったテクノロジーが勝手に挙動を変えることはあまりありませんでした。あるとすれば、部品の劣化や、ユーザーが元々意図されていない使い方をした場合などに限られていました。

従って、従来、責任の所在は欠陥を生み出した企業側か、規定通り使わなかったユーザのどちらかとなっていました。

現在のAIブームが来て突然、テクノロジーそれ自体にも責任があるのでは、と考えられるようになったのは、一重に「人工知能」という単語が「人間のような技術」という印象を与えているからにほかなりません。

人間のようなテクノロジーを作っているのだから、テクノロジー自体も責任をとれる必要があるのではないか、というような発想です。

もちろん、現在主流である機械学習をはじめとしたAI技術は人のように振る舞ったり考えることができるわけではありません。なので、AIの挙動によって何らかの事故が起こったとしても、AI自体が責任をとることはできません。

ただ、データドリブンのAI技術特有の問題として、ユーザーや開発者自身が予期していないデータを学習してしまって挙動が変わり、何らかの事故を起こしてしまう可能性があります。

この場合、そのデータの学習を監督する人がいなければ、責任の所在をどこにもおけなくなる、という問題があります。

では、テクノロジー自体は責任を負うことができないのだとすると、そのAI技術を作り出したエンジニアが責任を取るべきでしょうか、あるいは問題が起きそうな環境で機械学習モデルにデータを入れてしまったユーザー側が責任を取るべきでしょうか。

この問題は、責任という概念の本質的な性質に起因しています。

テクノロジーにしろ、組織的な意思決定にしろ、一つの製品を生み出したり意思決定を行ったりする過程には、多くの関係者が絡んでいます。

そして、それぞれの関係者がそれぞれのところで、何らかの責任をもってプロセスを進めています。

従って、仮にその決定や製品で問題が起きた時に、誰に責任を問うべきなのかは、本当はわからないことが多いのです。

これを、「problem of many hands」と言ったりします。日本語にすると「多数の手の問題」という感じでしょうか [1]。 

多くの人の手がかかわっているので責任を問う先が分からなくなる、という倫理的な問題です。

この問題は、一般的に語られている「責任」というものが一種の虚構であることを示しています。よく会社の社長や政党の党首などが責任をとって辞職したりしますが、組織の首がすげ変わっても、本質的な問題がなくならないのは、実際上の責任は責任者自身にはないからです。

テクノロジーと人間の間でも、やはり責任の所在を一つの主体に帰することはおそらく難しいです。つまり、誰が責任者か、ということは問題にしても仕方がないのです。

それよりもむしろ、起こってしまった出来事について、どこまでを責任の範囲にすべきか、という事を決めることが重要です。

例えば欧州のデータ規制であるGDPRは、AIのような意思決定支援技術が導入された際の責任のあり方についての説明を与えてくれます。

GDPRでは、AIが自動的にその意思決定を下す場合にはその理由となる情報をAIのモデルの情報も含めてすべてユーザーに説明しなければならない、AIを構築する人は、データの管理者が言ったとおりに行動するように規定する、などといった決まりを設定することで責任の範囲をできる限り明確にしようとしたりしています。

しかし、GDPRは非常に有力な規制ですが、それでもこれが一般的なAIに関する責任のあり方を決めるものではありません。

AIを管理する主体、AIを作る主体、ユーザー間の責任のバランスは、まだ決まっておらず過渡的なものです。

とはいえ、AI技術は日常的に我々の身の回りにあり、私たちに影響を与えています。もしも検索エンジンやレコメンドシステムを使って決めた内容で自分に大きな不利益が起きても、GoogleやAmazonがその過失をカバーしてくれるわけではないのです。

では、我々はAI技術に関するステークホルダーの間で責任のバランスがあいまいな状況の中、どのように考えていけばいいのでしょうか。

基本的な姿勢としては自衛する、というのが適切な態度です。

行おうとしている意思決定について、Googleで調べたりTwitterやInstagramで情報を集めたりする際に、そうした情報は何らかの偏向をもった条件に従って集められているのだ、という自覚を持つことが大事です。

そして、自分の意思決定が技術からの影響のもとに行われていることを自覚し、もし技術からの影響がなかったらどのように考えていたかを想像します。そして、実際に行おうとしている意思決定が果たしてテクノロジーによる支援がないときよりも良いと思えるものか、ということを考えて行動する必要があります。

このようにすることで、一度自分の思考や行動からAI技術からの影響を排除して考えることができるようになります。

これにより、AI技術がもたらす影響を自分なりに評価することができ、自らの意思決定についての責任のバランスを、自分の方に倒してくることができます。

テクノロジーと人間との間に生まれる責任に関しては、私が専門とする科学技術社会論でも深く扱われています。

例えばアクターネットワークセオリーという名の理論などで、技術と人間をあえて同質のアクターとして扱うことでその関係を記述しようとする試みなどが行われてきました [2]。これは技術と人間の間の責任のありかたを、技術も能動的に活動するものだという視点から見ることで議論していく枠組みであるとも言えます。

今後、私自身も、人とAIの接点で責任がどうバランスされていくのか、ということもこうした文脈で議論していこうと思っています。

ここまで読んでいただいてありがとうございました。興味を持っていただけた方で、ご支援まだいただけていない方がいらっしゃいましたら、ぜひクラウドファンディング「人とAIが健全な関係性を築くために、技術と社会の両軸を横断したい」のご支援もよろしくお願いいたします。

明日は技術を作ることとそれを人が使うことの間にある大きなギャップに関してnoteを書いてみたいと思います。

本日もありがとうございました!

参考文献:
[1] Van de Poel, I., Fahlquist, J. N., Doorn, N., Zwart, S., & Royakkers, L. (2012). The problem of many hands: Climate change as an example. Science and engineering ethics, 18(1), 49-67.
[2] ブルーノ・ラトゥール."虚構の「近代」―科学人類学は警告する."新評論(2008).



この記事が気に入ったらサポートをしてみませんか?