見出し画像

英国政府が「オンライン安全法案」を発表

 英国政府は、5月12日、「オンライン安全法案」(Online Safety Bill)を公表しました。今後数か月のうちに議会に提出される見込みです。

★ CNET Japan:オンライン安全法案、英国で草案公開--企業に多額の罰金の可能性も
https://japan.cnet.com/article/35170649/

 以前は Online Harms Bill として知られていたこの法案は、英国の通信監視機関である Ofcom を、テクノロジー企業に対する規制当局として配置する法律の主要部分だ。Ofcom は、有害または違法なコンテンツの削除や、サイトおよびサービスの停止を怠ったテクノロジー企業に対し、最大1800万ポンド(約28億円)の罰金、または世界売上高の10%のうち、高い方の罰金の支払いを命じることが可能になる。企業が継続的に義務を怠る場合は、その企業の上級幹部が刑事罰に問われる可能性もある。
(中略)
 この法案は、ユーザーに対する新しい注意義務をテクノロジー企業に課すものだ。企業は、違法なコンテンツだけでなく、自傷や自殺に関する情報や偽情報など、有害とみなされる可能性のあるコンテンツを削除することが求められる。企業は、ユーザーが投稿した詐欺的なコンテンツ、特に、他のユーザーに金銭を支払うように仕向けることを目的とした金銭的詐欺に対しても、責任を負うことになる。

 法案および説明覚書はそれぞれPDFで公表されています。

 全7部(141条)および附則から構成される詳細な法案(145ページ)ですが、英国政府のプレスリリースでは次のように説明されています(このほか、たとえば Hogan Lovells 氏による解説なども参照)。

● この画期的なオンライン安全法案は、オンラインにおける若者たちの安全確保および人種主義的暴言の制圧に役立つことになろう。
● 本日公表される法案には、オンラインにおける民主的議論を支えるための新たな措置が含まれている。
● ロマンス詐欺や虚偽の投資機会から人々を保護するため、ソーシャルメディアやデートアプリにおける金融詐欺も対象に含まれている。

 今回の法案は、ユーザー間サービス(user-to-user service;ソーシャルメディア、オンラインマーケットプレイス、デートアプリなど、ユーザーによるコンテンツの生成、アップロードまたはシェアが可能なもの)および検索サービス(search service)のうち英国とつながりがある等の要件を満たす規制対象サービス(regulated service)に対し、リスク評価義務(risk assessment duties)を含むさまざまな注意義務/配慮義務(duties of care)を課すものです。とくに、(a) 違法なコンテンツ(b) 子どもにとって有害なコンテンツ(c) 成人にとって有害なコンテンツへの対応が主眼となっています。法律の執行は、前掲記事にもあるように、独立機関である Ofcom(Office of Communications、通信庁)が中心的に担っていくことになります。

 子どもとの関連では、規制対象サービスの提供者は「子どもによるアクセスについての評価」(Assessment about access by children)を実施することが義務づけられ(第2部第4章など)、子どもがアクセスする可能性のあるサービスについては定期的に「子どもリスク評価」(children's risk assessment)を実施する義務を課されます(第7条など)。そのうえで、「子どもがアクセスする可能性のあるサービスについての安全配慮義務」(Safety duties for services likely to be accessed by children)として、主に次のような対応をとることが求められます(第10条など)。
-子どもに対する害のリスクの緩和・効果的管理および子どもに対して生ずる害の影響の緩和のために比例的措置をとる義務
-サービスの運営において、子どもにとって有害なコンテンツに子どもが遭遇することを防止するための比例的なシステムおよびプロセスを利用する義務
-サービス利用規約でこれらの措置について具体的に説明する義務

「子どもにとって有害なコンテンツ」(content that is harmful to children)は、▼当該コンテンツの性質上、「通常の感性の子どもに対し、相当の身体的または心理的悪影響を直接または間接に与える実質的リスクがあると合理的に考えるに足る理由が存する」もの、▼特定の属性(もしくは組み合わされた複数の属性)を有する人々または特定の集団の人々にとりわけ影響を及ぼすと合理的に推定し得るコンテンツなどと、ごく抽象的に定義されています(成人についてもおおむね同様です。なお、後者はとくに差別表現などを念頭に置いたものと思われます)。

 具体的には今後 実務規範などの形で明らかにされていく見込みですが、イングランドの前子どもコミッショナー、アン・ロングフィールド(Anne Longfield)氏が2019年2月に発表した意見書(以前の投稿の後半を参照)では次のようなものが例示されており、参考になるでしょう。

a. いじめ、ハラスメントおよび虐待
b. 差別またはヘイトスピーチ
c. 脅迫的・暴力的な行動
d. 違法なまたは有害な活動・行動の奨励または美化
e. 自殺または自傷行為の奨励
f. なりすましおよび欺罔行為
g. 依存を引き起こすことを目的とするものまたは引き起こす可能性が高いもの
h. 不健康な身体イメージの奨励または美化
i. ヌード(子ども・成人)または性的コンテンツであって教育的、科学的または芸術的でないもの

 違法なコンテンツについては、(a) テロ関連犯罪(b) CSEA(child sexual exploitation and abuse、子どもの性的搾取・虐待)犯罪、(c) 国務長官が規則で指定する「優先違法コンテンツ」(priority illegal content)がとくに対象とされています(第41条および附則など)。CSEA犯罪については昨年(2020年)12月15日に暫定実務規範(interim codes of practice)が発表されているので、あらためて紹介したいと思います(追記紹介しました)。

 法案を概観したかぎり、ドイツのように、有害なコンテンツからの子どもの保護のあり方を子ども・若者とともに考えようとしていく視点は見受けられません。また、表現の自由およびプライバシーに対する権利(第12条)、民主的重要性を有するコンテンツの保護(第13条)、ジャーナリスティックなコンテンツの保護(第14条)についての規定も置かれていますが、とくに子どもの権利を意識した規定にはなっていません。こうした点については、国連・子どもの権利委員会の一般的意見25号(デジタル環境との関連における子どもの権利)や欧州評議会「デジタル環境における子どもの権利の尊重、保護および充足のためのガイドライン」(2018年)なども踏まえ、さらなる議論が必要でしょう。

noteやホームページでの翻訳は、ほぼすべてボランティアでやっています。有用だと感じていただけたら、お気持ちで結構ですのでサポートしていただけると、嬉しく思います。