見出し画像

全社で取り組むAI倫理~先進的活動で国際的なAIガバナンスの進捗に貢献~

こんにちは!富士通 広報note編集部です。

生成AIの登場により、AIがより身近な存在になる一方で、AIによる偽・誤情報の巧妙化や著作権侵害などが問題視されています。AIの利便性を最大限に享受するために、AIは安心安全で信頼できるものでなければなりません。そこで重要視されているのが「AI倫理」です。
富士通は、テクノロジーを人間中心に活用することを訴え、AI倫理についても早期から取り組み、ノウハウを蓄積してきました。
今回は、富士通 AI倫理ガバナンス室長 荒堀淳一と、富士通研究所 人工知能研究所長 園田俊浩に話を聞きました。


AI倫理ガバナンス室 室長 荒堀淳一
富士通研究所 人工知能研究所 所長 園田俊浩

最近では、国内でもAI倫理に取り組む企業が増えてきたように思いますが、富士通のAI倫理の特長を一言で言うと?

荒堀:One Fujitsuとして一丸となった活動であることです。AI倫理の取り組みを技術倫理と捉えて研究開発部門が主導する企業と、リスクコンプライアンスの課題と捉えて法務部門が主導する企業が半々ずつだというデータを見たことがありますが、富士通の場合は、自然科学系の研究開発部門と、人文学・社会科学系の見地で取り組むコーポレート部門が密に連携していて、そこに事業部門も参加しています。

ほかにも富士通ならではの強みはありますか?

荒堀:数年前から他社に先駆けて経営陣主導でAI倫理に取り組んでいて、組織運営の点でも工夫を重ねています。外部の多様な分野の専門家から成る「富士通グループAI倫理外部委員会」を設置して客観的視点から評価いただいていること、当該委員会に社長をはじめ経営陣も参加し、委員会の議論を取締役会に共有することによりAI倫理をコーポレートガバナンスの一環として位置付けていることなど、ほかの企業にはないところと考えています。
また、2019年にAI倫理指針「富士通グループAIコミットメント」を公開しました。AI指針は事業者の独善的なものであってはならないとの考えから、富士通は欧州発の国際的AI倫理コミュニティ「AI4People」に創立メンバーとして参加し、その知見を上記指針に取り入れているため、その内容は学術的専門性を活用した非常に含蓄に富むものとなっていると自負しています。
さらに、AI倫理の社内浸透に加えて、産学連携活動を通じた学生とのディスカッション、ユーザー企業向けに生成AIガイドラインを公開するなど社会浸透を図っていることも先進的と考えています。

最新の取り組みについても教えてください。

荒堀:私たちは、常に最新の技術情報や社会環境を注視しています。2022年の暮れには生成AIが急速に話題になり、一方でハルシネーション・偽情報や秘密情報漏洩、著作権侵害などAIの負の側面も注目を浴びる気配がありました。そこで富士通は、日本で大きく話題になる前の2023年初頭に、従業員が生成AIを使うことを奨励する方針のもと、安全に利活用するためのガイドラインを作成しました。従業員に非常に好評だったため、ユーザー企業へも無償で公開し、ある意味で生成AIの普及に貢献できたのではないかと思います。

AI倫理に関する最新の国際動向はどうでしょうか?国ごとに規制も文化も違う中で、富士通はどのような対応をしているのでしょうか?

荒堀:自由や人権を重視してAIをうまくコントロールしたいという目標は、世界中で共通の認識だと思いますが、その手法が若干異なるというのが現状です。日本は、AI技術に対して包括的な法規制を行うのではなく、既存の現行法で解決できないケースのみ規制を行ってきました。問題があるとすると、グローバルに経済や技術が行き渡っている現代では、AI技術は容易に国境を越えてしまうことです。そうすると、同じアプリケーションや機器に対する規制が国ごとに異なることになり、消費者もメーカーも混乱する可能性があります。ですから、規制というものは国際的な協調が必要と考えます。日本でも、生成AIによるリスクへ適切に対処するために法的拘束力を持つルールが必要との課題提起があり、政府でも諸外国の動向を見ながら、日本のあるべきAI制度を問う議論を開始しています。
一方で、非常に速く進化する技術に対して、今日現在の技術を念頭において法規制を行っても、すぐに時代遅れになり規制緩和の声が出てきたり、新技術の足かせになったりすることがあります。そうすると、過剰な規制を行う国では、国民が最先端技術の恩恵を受けられないという逆効果が生まれます。そこで富士通では、安心安全なAI社会の実現に向けた各国当局の取り組みは歓迎するものの、あまりに過剰な規制は留意すべきである、また、規制のあり方や手法は国際的な協調が必要であると繰り返し主張してきました。そのような見地から、今年4月に日本政府が発行した「AI事業者ガイドライン」や昨年日本が議長国となったG7の「広島AIプロセス」に対しても富士通は積極的に意見を申し上げ、国際的なAIガバナンスの進展に貢献しています。
社内的な取り組みとしては、この5月に成立したEU AI Act(AI規制法)への対応を鋭意進めています。富士通では法案が作成された当初から情報取集を重ね、先手を打ってきました。例えば、昨年度、世界の各リージョンで「AI倫理責任者」を選任しグローバルにガバナンスを強化したほか、社内の倫理チェックの要否の判断基準にEU AI Actを踏まえたリスク区分を取り入れました。また、品質保証の部門を中心に社内関係部署で対策チームを結成し、法の要求事項に対応する準備を進めています。

技術研究開発の面からもお話を聞かせてください。AI倫理を取り入れた研究開発の難しさは何でしょうか?

園田:AI倫理は、AI利用において、人権や社会的正義といった倫理的な価値をどのように守るかに関する問題を取り扱うために、多様なステークホルダーの参加を必要とする複雑な課題です。そのため、AI倫理に関する研究は、多様なステークホルダーの知見を取り入れながら進める必要があり、この点が従来のAI研究とは異なり難しい点になります。

最近はどのような研究開発を行っているのでしょうか。

園田:現在のAI倫理の研究においては、想定されるリスクの大きさに応じてAIを管理する考え方が主流ですが、私たちは系統的にAIのリスクを特定する影響評価手法を早くから提案してきました。生成AIや基盤モデル技術では、人間と同等レベルの回答や画像が生成できるために様々な有用な活用がある反面、偽情報などの問題は深刻化していくと考えています。こうした背景からLLMバイアス診断技術と幻覚対策対話型生成AIを開発しました。AI活用のライフサイクルの中で、技術でチャレンジできるのはAIそのものとは限らないところが難しく、同時に取り組む意義を感じます。

これまでAI倫理ガバナンス強化に注力されてきましたが、その中で一番苦労した点は何でしょうか?

荒堀:先ほどご説明したように、富士通のAI倫理は、技術者や事業部との議論を積み重ねながら進めてきました。自然科学的な考え方と、人文学・社会科学的な考え方は大きく違います。人間社会は自然法則が支配しておらず、再現性がありません。また、技術に対する受容性も、文化風土などによって大きく異なります。このような人間社会の曖昧なルールと、AIを研究開発する方々の厳密なルールがせめぎあうのが、AI倫理の面白さであり、難しさでもあります。一方で、AI倫理という極めて新しいトピックについて、経営陣や事業部は非常に暖かく見守り、積極的に支援してくれました。「よく分からないからやめろ」という声は全くなく、このような多様性や柔軟性は、富士通の非常に良い文化だと思っています。

AI倫理の取り組みは今何合目だと思いますか?

荒堀:今は5合目です。従業員にAI倫理の重要性を理解してもらい、困ったときにはAI倫理のチェックシートで自己点検したり、私たちに相談したりするような環境ができあがっています。

今後の課題は何と考えていますか?

荒堀:本来は、AIを研究開発、提供する一人ひとりがAIと人間の共存に向けて持続可能で公正なアプローチを模索できる必要があります。また、AI倫理の問題は、研究開発側がどれだけ必死に頑張っても、リスクを完全にゼロにすることができません。AIをご活用いただくユーザー企業や、社会の消費者一人ひとりがAIの利便性とリスクを理解する必要があります。つまり、社会全体で取り組まなければならないのがAI倫理です。AIを届ける富士通として、社会全体がAIをガバナンスできる仕組みづくりに貢献する必要があります。ですから、まだまだ目標は高いところにあると考えています。

今回の記事でご紹介したAI倫理については、本日6月4日(火)に、メディアや投資家、アナリスト向けに開催する富士通の研究戦略説明会でもその重要性をご説明します。説明会の資料や、関連プレスリリースはこちらからご覧ください。
説明会資料
プレスリリース

<関連リンク>
「持続可能な社会を支える安心で信頼できるAIを目指して」AI倫理浸透へのあくなき挑戦(フジトラニュース)

おすすめ記事


みんなにも読んでほしいですか?

オススメした記事はフォロワーのタイムラインに表示されます!

富士通 広報noteについてメディア取材ご希望の方は以下よりご連絡ください。 ご利用環境により、以下ボタンが反応しない場合は、<fj-prir-note@dl.jp.fujitsu.com>をご利用ください。