見出し画像

【Viva Technology】AI関連セッションに参加して

こんにちは!エジンバラ大学大学院在学中の菊地です。

2024年5月22~25日の間、フランスのパリでテクノロジーとスタートアップに特化したヨーロッパ最大級のカンファレンスViva Technologyが開催されていました。
今年は日本がCountry of the Yearであり、日本初のスタートアップも多く参加していました。私は特にResponsible AI等に関連したセッションに参加してきたので、セッションの内容を紹介します。


Embracing Responsible AI in Business: Necessity and Impact

スピーカー:Stephane Barde (Malakoff Humanis), Bertrand Cassar (La Poste Groupe), Alex Combessie (GISKARD), Emilie Sirvent Hien (Orange)

AIリスクの対応に関して、各企業の取り組みやAI Actの採択と施行による企業の取り組みの変化が議論された。かつては多くの企業がAIリスクを認識していたものの、ガバナンス強化のための金銭的な投資に至るにはハードルが高かった。しかしその後、罰則規定を含むAI Actが採択されたことで、AIガバナンスへの対応が必須となり、AIガバナンスに対応する緊急性が高まり整備が進んでいるという点が印象的だった。欧州の企業でもマネジメント層にAIガバナンスの対応強化を説得することは依然として難しいが、法規制という強制力により一気に対応が進むという緊張感が感じられたセッションであった。

AI Rulebook: What is to be Regulated, How and by Whom?

スピーカー:Anu Bradford (University of Columbia), Raffi Krikorian (Emerson Collective), Jennifer Scheneker (The Innovator, Media), Dragos Tudorache (European Parliament)
EU、米国、中国のAI規制に関して、各国の規制とイノベーションのエコシステムについて議論がなされた。特に印象的だったのは、規制とイノベーションの関係についての議論。コロンビア大学のアヌ・ブラッドフォード教授は、規制とイノベーションはトレードオフであると説明されることが多いが、それは誤った認識であると指摘していた。またイノベーション阻害の原因は規制そのものではなく、以下に挙げられる規制や市場環境を含むエコシステムであると説明した。

  1. 統一市場の欠如:EUにはアメリカのように統一された市場ではないため(国家間で言語が異なるなど)、プロダクトを普及するにはより大きな障壁がある。

  2. 巨大資本市場の不足:EUにはスタートアップを支援する巨大な資本市場(VC等)がアメリカと比較して少ない。

  3. 破産法によるリスク許容度の違い:ヨーロッパの破産法では、一度破産するとその後の事業再建・資金調達が困難となるので、破産は致命的な失敗と見なされることが多い。これに対して、アメリカの破産法では事業に失敗し破産したとしても、事業再建のハードルがヨーロッパより低い。そのため、アメリカの事業家の方がリスクを取りやすい。

  4. 人材獲得:EUよりアメリカの方がより魅力的な起業家人材を惹きつけている。10億ドル以上の時価総額を持つスタートアップのうち、移民のCEOが50%以上を占めている。

また上記の違いに加え、規制によってどこの領域においてイノベーションを起こしやすくし、どの領域でイノベーションを起こさないようにするかをコントロールすることが重要という議論が行われた。

Is AI Making Us Safer, or Hackers More Dangerous?

スピーカー:Oleksandr Bornyakov (Ministry of Digital Transformation of Ukraine), Guy-Philippe Goldstein (GPG Consulting, CEO), Wendy Nather (Cisco, Director of Strategic Engagements), Joe Tidy (BBC News)

AIによるセキュリティの問題について議論された。これまでもセキュリティの問題は存在したが、AIが広く普及することによってその危機感が強まっていることについての議論がなされた。
このセキュリティの問題は、個人・社会レベルでのリスクが議論された。

  1. 個人レベルのリスク:特定の個人の声と動画をSNSから取得することができれば、その情報をもとに高度なディープフェイクが作成可能となっている。それが家族や友人に送付されれば、詐欺の見分けが非常に難しくなる。またこれらの技術が容易に、大規模に展開されることについても問題となっている。

  2. 社会レベルのリスク:誤情報の拡散による民主主義の分断、ソーシャルハッキングのリスクが高まる。ソーシャルハッキングとは、人間の心理的な脆弱性を利用して、情報を不正に取得したり、システムに不正アクセスしたりする手法のことをいう。生成AI等を使えば、フィッシングメールや、特定の人物の声を再現したボイスフィッシングも可能になり、ソーシャルハッキングを精巧にする可能性がある。日本では岸田首相の偽画像・偽動画が拡散されているとの報道を目にするが、これら要人の偽情報が企業や政府から情報を取得するためのソーシャルハッキングに使われる可能性があること、また対策が急務であることが議論されていた。メディアが担ってきた情報のファクトチェックも個人にとって、必須のスキルになっていくだろう。

AI関連スタートアップ

Citadel AI
Citadel AIは「信頼できるAI」の社会実装を目指す、日本初のグローバルスタートアップ。学習時にAIの耐性テストを行うだけでなく、AIに関わる法制度や国際標準への適合性を評価するCitadel Lensを開発。また、AI運用後の品質を継続的にモニタリングするCitadel Radarも提供している。

Giskard
Giskardは、AIの継続的な検証とテストを簡単に行えるAPIを開発する会社。PyTorch、TensorFlow、Transformers、sklearnなどで構築されたすべてのAIモデルに対応し、バイアスや非倫理的な挙動をテストすることができる。

Witty works
Witty worksは、文書のテキスト内容のバイアスを検証し、ダイバーシティに配慮した表現への修正を提案するツールを開発している。

まとめ

Viva Technologyでは、AIの発展に伴う規制やセキュリティ担保の可能性も議論され、各企業のブースでもプライバシーやExplainabilityを担保するためのソリューションも多く紹介されていた。特にAI Actをきっかけとして、民間でもAIセーフティに関する取り組みが活発になってきていると思う。今後は規制だけでなく、AIセーフティに関するスタートアップや各企業の取り組みも注視していきたい。

この記事が気に入ったらサポートをしてみませんか?