大規模オンラインプラットフォーム規制の波:EUのDSAから見るコンテンツモデレーションの変化と表現の自由への影響
欧州デジタルサービス法(DSA)とオンライン表現の新たな局面
インターネットは現代社会において、情報収集や意見表明のための不可欠な基盤となっています。特にソーシャルネットワーキングサービス(SNS)などの大規模なオンラインプラットフォームは、多くの人々にとって主要なコミュニケーション手段であり、多様な表現が日々行われています。一方で、これらのプラットフォーム上では、違法なコンテンツや偽情報、ヘイトスピーチといった有害な情報が拡散する問題も指摘されており、国際的に対応が求められています。
このような状況の中、世界各国や地域ではオンラインプラットフォームに対する新たな規制の導入が進んでいます。本稿では、その中でも特に包括的かつ影響力が大きいとされる欧州連合(EU)のデジタルサービス法(Digital Services Act, DSA)に焦点を当て、この法律が大規模オンラインプラットフォームのコンテンツモデレーションにどのような変化をもたらし、それが表現の自由にどのような影響を与えるのかを解説いたします。
デジタルサービス法(DSA)の概要と大規模プラットフォームへの義務
EUのDSAは、インターネット上のサービス提供者に対して、その規模や種類に応じた義務を課すことで、オンライン空間の安全性と透明性を高めることを目的としています。特に、ユーザー数がEU域内で4500万人を超える「超大規模オンラインプラットフォーム(Very Large Online Platforms: VLOPs)」や「超大規模オンライン検索エンジン(Very Large Online Search Engines: VLOSEs)」に対しては、他のサービス提供者よりも厳格で広範な義務が課されています。
VLOPsに指定されたプラットフォーム企業は、そのサービスが社会にもたらすシステム上のリスクを評価し、それを軽減するための措置を講じる必要があります。これらのリスクには、違法コンテンツや偽情報の拡散、市民社会や民主主義プロセスへの悪影響、ジェンダーに基づく暴力、公衆衛生や未成年者への悪影響などが含まれます。そして、表現の自由や報道の自由といった基本的な権利に対する影響も、リスク評価の対象となっています。
VLOPsに具体的に課される主な義務には、以下のようなものがあります。
- リスク評価と緩和策の実施: 定期的にサービスのリスクを評価し、偽情報対策、アルゴリズムの透明性向上、コンテンツモデレーション運用の改善など、適切なリスク緩和策を講じる義務があります。
- 違法コンテンツの削除メカニズム強化: ユーザーが違法コンテンツを容易に報告できる仕組みを整備し、迅速に対応する義務があります。また、「信頼できる旗振り役(Trusted Flaggers)」と呼ばれる専門組織からの通知には優先的に対応することが求められます。
- コンテンツモデレーションに関する透明性向上: コンテンツ削除やアクセス制限などの措置に関する決定理由をユーザーに通知する義務や、モデレーションに関する統計情報を定期的に公開する義務があります。
- 異議申し立てメカニズムの提供: コンテンツモデレーションの決定に不服があるユーザーのために、プラットフォーム内部での異議申し立て手続きを用意する義務があります。
- 外部監査の実施: DSAの義務遵守状況について、独立した監査機関による定期的な監査を受ける義務があります。
- データアクセス提供: 承認された研究者に対して、サービスのリスクに関する調査に必要なデータへのアクセスを提供する義務があります。
これらの義務は、プラットフォームがこれまで自社の利用規約に基づいて行ってきたコンテンツモデレーション(ユーザーが投稿したコンテンツが規約に違反するかどうかを判断し、必要に応じて削除や制限を行うプロセス)のあり方を大きく変える可能性を持っています。
コンテンツモデレーションへの影響と表現の自由との関係
DSAの導入は、VLOPsのコンテンツモデレーション運用に多岐にわたる影響を与えています。最も直接的なのは、違法コンテンツへの対応強化と、それに関する透明性及びアカウンタビリティ(説明責任)の向上です。プラットフォームは、特定の違法コンテンツ(例:テロ扇動、児童性的虐待コンテンツ、特定のヘイトスピーチなど)に対してより迅速かつ効果的に対処することが求められます。また、コンテンツ削除の基準や判断プロセスをより明確にし、ユーザーへの通知を徹底することで、モデレーションの「ブラックボックス化」を解消しようとしています。
しかし、同時に表現の自由との関係において、いくつかの懸念も生じています。
- 過剰な削除(オーバーブロッキング)のリスク: 厳格な規制遵守を優先するあまり、プラットフォームが違法か合法か判断に迷うグレーゾーンのコンテンツや、本来保護されるべき表現(例えば、政府批判、風刺、芸術表現など)まで誤って削除してしまう「オーバーブロッキング」が発生するリスクが指摘されています。特に、AIを用いた自動モデレーションは効率的ですが、文脈や意図の理解が難しく、誤判定のリスクが伴います。
- プラットフォームの自主規制への影響: 法律の義務付けにより、プラットフォームがコンテンツの「合法性」だけでなく「有害性」についても自主的な判断を強化する可能性があります。これにより、法律で明確に禁止されていないものの、プラットフォームが不適切と判断したコンテンツ(例:偽情報、悪質なデマなど)に対する削除や表示制限(シャドウバンディングなど)が増加し、多様な意見がプラットフォームから排除される可能性も懸念されています。
- 異議申し立ての実効性: ユーザーはモデレーション決定に対して異議申し立てを行う権利を得ますが、VLOPsの対応能力や手続きの複雑さによっては、その権利が実効性を持つかどうかに課題が残る可能性があります。
DSAは、これらの懸念に対処するため、前述のリスク評価において表現の自由への影響を考慮することを義務付け、異議申し立てメカニズムを導入しています。しかし、実際の運用において、これらの条項がどれだけ表現の自由を保護する方向に働くかは、今後のプラットフォームの取り組みやEUによる執行状況にかかっています。
他地域の動向と今後の展望
EUのDSAのような包括的なデジタル規制法は、他の地域や国にも影響を与えています。例えば、英国では同様にオンライン上の安全性向上を目指すオンライン安全法が成立し、有害コンテンツや違法コンテンツへの対策をプラットフォームに義務付けています。これらの動きは、デジタル空間におけるプラットフォームの役割と責任を再定義しようとする世界的な潮流と言えるでしょう。
こうした新たな法規制は、オンライン上の安全を確保し、偽情報や違法コンテンツからユーザーを保護するという重要な目的を持っています。しかし、その実施にあたっては、表現の自由を不当に制約することのないよう、慎重なバランス感覚が求められます。規制当局、プラットフォーム企業、そして市民社会を含む様々なアクターが、その影響を注視し、対話を続けることが不可欠です。
DSAをはじめとする新たなデジタル規制が、オンラインの安全性向上と多様な表現の自由の保障という二つの目標をどのように両立させていくのか。これは、デジタル時代の表現規制を考える上で、今後も継続的に追跡し、議論していくべき重要な課題です。