AI時代における「修理する権利」: 人間と技術の共生を目指して

人工知能(AI)技術の急速な発展に伴い、私たちの生活や仕事のあり方が大きく変化しています。しかし、その一方で、AIに対する不信感や懸念も高まっています。本記事では、AIと人間の関係性を再考し、「修理する権利」の重要性について議論します。農業におけるテクノロジー導入の事例から始まり、AIの開発プロセスに一般市民を巻き込む必要性まで、幅広いトピックを取り上げます。


AIと農業:予期せぬ出会い

最新技術が変える農業の姿

一見すると無関係に思える人工知能と農業ですが、実は密接な関係があります。現代の農業では、多くの先端技術が活用されています。例えば、コンピュータビジョンを使った作物収量の予測、AIによる害虫の特定と駆除、予測分析を用いた干ばつやハリケーンなどの極端な気象条件の予測などが行われています。

これらの技術は農業の効率化や生産性の向上に貢献していますが、同時に農家の方々にとっては馴染みのない、時に疎外感を感じさせるものでもあります。

ジョン・ディアの事例:スマートトラクターの功罪

この技術と農家の関係性が顕在化したのが、2017年のジョン・ディア社によるスマートトラクターの導入でした。それまでは、トラクターが故障した場合、農家自身で修理したり、地元の整備士に依頼したりすることができました。しかし、新しいスマートトラクターでは、農家が自ら機器を修理することが法的に禁止されました。修理には認定技術者を使用する必要があり、そのため農家は数週間も待たされることになり、その間に作物が腐ったり、害虫が発生したりするリスクが生じました。

「修理する権利」運動の誕生

農家たちの反撃

この状況に直面した農家たちは、自ら行動を起こすことを決意しました。一部の農家はプログラミングを学び、ハッカーと協力してシステムを修理するためのパッチを作成しました。2022年には、世界最大級のハッカー会議DEFCONにおいて、「Sick Codes」というハッカーとそのチームが、ジョン・ディアのトラクターにハッキングする方法を公開しました。これは、技術の脆弱性を示すだけでなく、自分の機器は自分で所有し、管理すべきだという主張でもありました。

「修理する権利」の概念

この動きは「修理する権利(Right to Repair)」運動として知られるようになりました。この考え方は、トラクターやスマート歯ブラシ、洗濯機など、自分が所有する技術製品が故障した場合、それを修理する権利を持つべきだというものです。

AIへの不信感と「修理する権利」の必要性

公衆の信頼低下

AIの分野では週ごとに新たな革新的技術が登場していますが、興味深いことに、一般市民のAIに対する信頼は低下しています。最近のピュー研究所の調査によると、アメリカ人の間ではAIに対する懸念が期待を上回っています。この傾向は世界的なもので、世界リスク調査によれば、中南米やアフリカの回答者も、AIが自国民にとって利益よりも害をもたらすと感じています。

技術と人間の乖離

社会科学者であり、AI開発者でもある筆者にとって、この状況は非常に歯がゆいものです。筆者は技術の楽観主義者であり、AIが社会に良い影響をもたらすと信じています。では、なぜこのような不信感が生まれているのでしょうか。

筆者が過去数年間で数百人の人々(建築家、科学者、ジャーナリスト、写真家、ライドシェアドライバー、医師など)に話を聞いたところ、共通の意見がありました。それは、「人間が後付けのように扱われている」ということです。

多くの人々は、自分たちのデータが許可なく収集され、高度なAIシステムの開発に利用されていることを知っています。また、そのようなシステムが自分たちの人生の機会を左右していることも認識しています。しかし、システムの構築方法について意見を求められることはなく、問題が発生した場合の対処法も知らされていません。

レッドチーミング:AIの信頼性向上への一歩

レッドチーミングの概念

AIシステムを所有していなくても、それらは徐々に私たちの生活を支配しつつあります。そのため、システムを開発する人々と、そのシステムが実際の世界でどのように機能すべきかを最もよく理解している人々との間に、より良いフィードバックループを構築する必要があります。

その一歩として、「レッドチーミング」というプロセスが注目されています。レッドチーミングは元々軍事で始まり、現在ではサイバーセキュリティ分野でも使用されている手法です。従来のレッドチーミング演習では、外部の専門家がシステムに侵入を試みます。これは、先ほどのSick Codesがトラクターに行ったことと似ていますが、合法的なものです。レッドチーミングは、システムの防御を試験し、問題が発生する可能性のある箇所を特定し、修正する方法を見つけるのに役立ちます。

AIシステムの特殊性

しかし、AIシステムが暴走した場合、単なるハッカーの侵入以上の問題が発生する可能性があります。モデルが誤作動したり、現実を歪めて表現したりする可能性があるのです。例えば、最近では多様性を表現しようとしたAIシステムが、歴史的に不正確な写真を生成するという事件がありました。西洋史の基本的な知識があれば、建国の父たちやナチス時代の兵士が黒人であるはずがないことは明らかです。

このような場合、誰が専門家として適格なのでしょうか。それは、一般の人々なのです。筆者は世界中の数千人の人々と大小様々なレッドチーミング演習を行っており、それを通じてAIモデルの間違いを発見し、修正してきました。また、OpenAI、Meta、Anthropic、Googleなど、世界最大級のテクノロジー企業とも協力しています。これらの取り組みを通じて、より多くの人々にとってモデルがより良く機能するようになりました。

レッドチーミングの実践例

科学的誤情報への対応

ロンドンのロイヤル・ソサエティと提携して、疾病科学者との科学的誤情報・偽情報に関するイベントを開催しました。科学者たちは、AIモデルがCOVIDに関する誤情報に対して多くの保護機能を持っていることを発見しました。しかし、はしか、おたふく風邪、インフルエンザなどの他の疾病に関しては、同じ保護機能が適用されていませんでした。これらの問題を報告し、修正された結果、私たちは科学的誤情報や偽情報からより良く保護されるようになりました。

建築家との対話

Autodesk Universityで建築家たちと同様の演習を行い、「AIは彼らの仕事を奪うのか」という単純な質問をしました。より具体的には、現代のAIシステムが現代美術館の設計仕様を作成できるかどうかを想像してもらいました。答えは圧倒的に「ノー」でした。

その理由は、建築家の仕事が単に建物を描くだけではないからです。建築家は物理学や材料科学を理解し、建築基準法を知り、そしてそれらを踏まえた上で感動を呼ぶものを作る必要があります。建築家たちが望んでいたのは、彼らと対話し、フィードバックを与え、場合によっては設計の提案を積極的に行うAIシステムでした。現在のAIシステムはまだそこまでの能力はありませんが、これらは技術的な問題です。AI開発者たちは非常に優科で、数年後にはこれらの問題を解決できるかもしれません。

信頼の問題

しかし、建築家たちの最大の懸念は信頼の問題でした。建築家は建物に何か問題が生じた場合、法的責任を負います。ライセンスを失ったり、罰金を科されたり、最悪の場合は刑務所に入る可能性もあります。建物の不具合は様々な形で起こり得ます。例えば、非常時に人々が押しつぶされてしまうような誤った方向に開く非常口や、強風で窓ガラスが割れて歩行者の上に降り注ぐといった事態です。もし間違いを発見しても修正できないのであれば、建築家が自分の仕事や自由をAIシステムに任せるでしょうか。

エージェント型AIの到来と「修理する権利」の重要性

エージェント型AIの概要

次世代のAIシステムである「エージェント型AI」は、人間の主体性を維持するか、それともAIシステムに決定を委ねるかという、真の分岐点となります。AIエージェントは個人的なアシスタントのようなものだと想像してください。例えば、医療エージェントは家族の診察の必要性を判断したり、処方薬を補充したり、緊急時に病院に医療記録を送信したりする可能性があります。

「修理する権利」の必要性

しかし、AIエージェントは「修理する権利」が真に確立されない限り、存在し得ません。基本的な診断を実行できなければ、どの親が子供の健康をAIシステムに任せるでしょうか。新入社員を再訓練するように、AIシステムを再訓練できなければ、どのプロフェッショナルが仕事の決定をAIシステムに任せるでしょうか。

「修理する権利」の具体的イメージ

「修理する権利」は以下のようなものかもしれません:

  1. 自分でデザインした基本的なテストを実行できる診断ボードがあり、問題があれば企業に報告し、修正されたら連絡を受けられる。

  2. 現在行われているように、倫理的ハッカーなどの第三者とともにシステムのパッチを作成し、ダウンロードして自分のシステムを望むように改善できる。

  3. 先駆的な農家たちのように、プログラミングを学び、自分のシステムを微調整できる。

結論:人間中心のAI開発に向けて

AIがもたらす利益を実現するためには、開発プロセスに人々を巻き込む方法を見出す必要があります。筆者は責任あるAIの実現に向けてキャリアを捧げてきました。その分野では、「人々がAIを信頼するために企業は何を構築できるか」という問いが投げかけられてきました。

しかし、これらのレッドチーミング演習や人々との対話を通じて、筆者は私たちがずっと間違った質問をしていたことに気づきました。本当に問うべきだったのは、「人々がAIを自分たちにとって有益なものにするために、どのようなツールを構築できるか」ということです。

技術者だけでは、この課題を解決することはできません。一般の人々と協力してこそ、真に人間中心のAI開発が可能になるのです。AIと人間が共生する未来を築くためには、「修理する権利」の確立と、開発プロセスへの一般市民の参加が不可欠です。私たち一人一人が、この新しい技術時代の形成に積極的に関与していく必要があるのです。

この記事が気に入ったらサポートをしてみませんか?