プライバシーの原則

W3C ステートメント

この文書に関する詳細情報
This version:
https://www.w3.org/TR/2025/STMT-privacy-principles-20250515/
Latest published version:
https://www.w3.org/TR/privacy-principles/
Latest editor's draft:
https://w3ctag.github.io/privacy-principles/
History:
https://www.w3.org/standards/history/privacy-principles/
コミット履歴
Editors:
Robin Berjon (Supramundane) (The New York Times — 2022年9月まで)
Jeffrey Yasskin (Google)
Feedback:
GitHub w3ctag/privacy-principlesプルリクエストイシューの新規作成オープンなイシュー

また、翻訳も参照してください。


概要

プライバシーはウェブの重要な要素です。この文書は、世界中で適用されるプライバシーおよび関連概念の定義と、ウェブを信頼できるプラットフォームとして発展させる際に指針となる一連のプライバシー原則を提供します。ウェブを利用する人々は、技術と政策の関係がより強固になることで恩恵を受けるでしょう。本書は両者に対応するように書かれています。

この文書のステータス

このセクションでは、本書が公開された時点での文書のステータスを説明します。現行の W3C 出版物の一覧および本技術報告書の最新版は、W3C standards and drafts index の https://www.w3.org/TR/ でご確認ください。

この文書は、Web Privacy Principles Task Force によって作成されました。これは TAG によって招集されました。

この文書は、Technical Architecture Group により Note track を用いたステートメントとして公開されました。

W3C ステートメントとは、広範なコンセンサス形成の後に W3C およびそのメンバーによって支持される文書です。

W3C Patent Policy は、本書に対していかなるライセンス要件や約束も課していません。

この文書は 2023年11月03日付 W3C プロセス文書 に従って管理されています。

この文書の位置づけ

この文書は、Ethical Web PrinciplesEthical Web Principles のプライバシー原則を詳述するものです:「セキュリティとプライバシーは不可欠である。」本書はプライバシーに焦点を当てていますが、プライバシーが常に他の倫理的ウェブ原則よりも重要であることを意味するものではなく、異なる倫理的原則が対立する場合にどのようにバランスを取るかについては扱っていません。

ウェブのプライバシーは主に二つの力によって規制されます:ウェブプラットフォームが公開する(または公開しない)アーキテクチャ上の機能と、ウェブが使用される各法域の法律([New-Chicago-School], [Standard-Bodies-Regulators])。これらの規制メカニズムは別個のものであり、ある国の法律が(変更すべきでもすべきでないように)ウェブ全体のアーキテクチャを変えるわけではなく、同様にウェブ仕様は特定の法律を覆すことはできません(ただし、法律を作成・施行しやすくする影響は与え得ます)。ウェブは特定の法律的プライバシー体制の単なる実装ではなく、しばしば法的要件を超える共有価値によって駆動される独自の特徴と保証を持っています。

しかしながら、ウェブのプライバシーにとって最良なのは、技術と法律が互いに補完し合うことです。本書は、ウェブ上のプライバシーを規制する技術的努力を支援するための共通概念を確立することを目指しています。また、法的規制体制との整合性を図る際にも役立つ可能性があります。

本書の目的はあらゆるプライバシー問題を網羅することではなく、ウェブコミュニティがプライバシーについて十分に情報に基づいた意思決定を行い、プライバシーをウェブのアーキテクチャに織り込むための背景を提供することです。

絶対的なアーキテクチャ原則はほとんどなく、プライバシーも例外ではありません:プライバシーはアクセシビリティや国際化など、倫理的アーキテクチャの他の望ましい特性と緊張関係に入ることがあり、そのような場合にはウェブコミュニティが協力して適切なバランスを見出す必要があります。

この文書の対象読者

この文書の主な対象読者は

追加の対象読者には次の人々が含まれます:

この文書は、新しいウェブ標準や機能のライフサイクル、あるいはウェブ製品の開発において可能な限り早い段階でプライバシー懸念に対処するために、対象読者を支援することを意図しています。プライバシーを最初から考慮することで、予見可能だが想定外の問題に対処するために後から特別なケースを追加したり、ユーザーにとって受け入れがたいシステムを構築したりする必要を避けることができます。

この文書は新しい標準のプライバシーレビューを導くため、ウェブ仕様の作成者は設計の早い段階で本書を参照し、自分の機能がスムーズにレビューを通過するようにするべきです。

原則の一覧

このセクションは、全てのプライバシー原則の一覧であり、文書の他の部分にあるそれらの詳しい説明へのリンクを含みます。

どの対象読者を含めるべきですか?

1. ウェブ上のプライバシー入門

これは技術的ガイドラインを含む文書です。しかし、これらのガイドラインを文脈に置くためには、まずいくつかの用語を定義し、ここで「プライバシー」が何を意味するのかを説明する必要があります。

ウェブは情報の流れで構成される社会的かつ技術的なシステムです。この文書はウェブに適用されるプライバシーに特に関するものであるため、情報の流れに関するプライバシーに焦点を当てています。

ウェブはすべての人のためのものです([For-Everyone])。ウェブは「人々を助け、純粋に社会的な便益をもたらすプラットフォーム」であるべきです([Ethical-Web-Principles])。ウェブが人々に役立つ方法の一つは、監視やデータが可能にする操作から人々を守ることを目指すことです。

情報は人々を予測し影響を与えるために使われ得るだけでなく、人々の行動を制御するオンライン空間を設計するためにも用いられます。情報の収集および処理が、より大規模に、より高精度かつ信頼性を持って、増え続ける種類のデータ間で相互運用性を高めつつ、加速して行われることにより、私的・公共の自由を脅かす権力の集中が進んでいます。さらに、自動化と生活のあらゆる面の電算化が進むことで、情報の力は増し、加害者が被害者と同じ部屋にいなければならないような多くの侵入的行為のコストが下がっています。

あるアクターデータを収集し、それを自動的に処理でき、かつそのが自分のデータを保護したり処理を制御したりするために手動の行動を取らなければならない場合、この自動化の非対称性は当該アクターに有利な権力の不均衡を生み、そのの主体性を低下させます。本書はデータ処理が人々に与える影響に焦点を当てますが、企業や政府のような他のアクターにも影響を及ぼし得ます。

すべての人が権力の不均衡に対して同じように抵抗できるわけではないことを念頭に置くことが重要です:あるはより脆弱であり、したがってより多くの保護を必要とします。

データガバナンス情報の流れを規制する原則の体系です。 データガバナンスは、どのアクターがどのようなデータを収集できるか、どのように収集できるか、そしてどのようにそれを処理できるかを決定します([GKC-Privacy], [IAD])。本書は人々を第一に置くデータガバナンスのためのビルディングブロックを提供します。

原則は文脈によって異なります([Understanding-Privacy], [Contextual-Integrity])。例えば、人々は職場、カフェ、自宅でのプライバシーに対して異なる期待を持ちます。プライバシー状況を理解し評価するには、次を明確に特定することが最も良い方法です:

常にプライバシー原則が働いています。ある原則の方が寛容である集合があっても、それが中立であることを意味しません。すべてのプライバシー原則は人々に影響を与えるため、どの原則がウェブの文脈における倫理的ウェブ価値と最も整合するかを決定する必要があります([Ethical-Web-Principles], [Why-Privacy])。

情報の流れとは、アクターによって交換または処理される情報を指します。人のプライバシーは、彼らから他のアクターへ情報が流れることによっても、彼らへ情報が流れることによっても侵害され得ます。後者の例には、予期せぬ衝撃的な画像、睡眠をとろうとしているときの大きな音、操作的な情報、何かに集中しているときの中断的なメッセージ、または社会的なやり取りを求めているときの嫌がらせなどが含まれます。(これらのいくつかの場合、情報は個人データでないかもしれません。)

ウェブ上では、情報の流れには、特定の相互作用内でユーザーにとって常に認識可能または明白でない多様なアクターが関与する場合があります。ウェブサイトを訪問することは、そのサイトの運営に関与するアクターだけでなく、ネットワークアクセスを持つアクターも含む可能性があります。これにはインターネットサービスプロバイダー、その他のネットワーク事業者、学校・図書館・大学などネットワーク接続を提供する地域の機関、政府の情報機関、ネットワークや他のアクターのシステムにアクセスした悪意あるハッカーなどが含まれ得ます。監視などのハイレベルな脅威はこれらのアクターによって追求され得ます([RFC6973])。広範囲かつ無差別な監視の形態である常時監視(pervasive monitoring)は、インターネットとウェブの利用者のプライバシーに対する既知の攻撃です([RFC7258])。

情報の流れには他の人々も関与する場合があります — たとえば、サイトの他の利用者 — これには友人、家族、教師、見知らぬ人、政府当局などが含まれ得ます。開示や嫌がらせを含むプライバシーへの脅威のいくつかは、情報の流れに関与する他の人々に特有である場合があります([RFC6973])。

1.1 個人の自律性

ある自律性とは、他のアクターからの過度な影響を受けずに、自分自身の意志で決定を下す能力を指します。人々は決定を熟考するための知的資源と時間が限られており、決定を下す際に近道に頼らざるを得ません。これにより、プライバシーに関する選好を含む彼らの選好が操作され得ます([Privacy-Behavior], [Digital-Market-Manipulation])。ある自律性は、その人が無制限の時間と知的能力を持っていた場合に下したであろう決定により近い近道をシステムが提供すると向上します。逆に、そのような理想的条件でなされた決定に反する近道が提供されると、自律性は低下します。

自律性を低下させるアフォーダンスや相互作用は、欺瞞的パターン(またはダークパターン)として知られています。欺瞞的パターンは故意である必要はありません([Dark-Patterns], [Dark-Pattern-Dark])。人々の自律性に影響を与える可能性のある何かを構築する際には、複数の独立した観点からのレビュー担当者が介入して、それが欺瞞的パターンを導入していないかを確認することが重要です。

今日のデータ経済における潜在的なデータ関連の決定の量が大きいため、人々が自分のデータの処理方法を詳細に制御することは不可能です。この事実はプライバシーが終わったことを意味しません。研究は、人々が自分のデータ処理に関して依然として懸念を抱き、無力感を感じ、主体性を失ったと感じていることを示しています([Privacy-Concerned])。技術的インフラストラクチャを慎重に設計すれば、人々が自分のデータに関してより大きな自律性を持てるようにできます。これは、適切でプライバシーを保護するデフォルトを設定し、ユーザーフレンドリーな選択のアーキテクチャを設計することで行われます。

1.1.2 プライバシー労働

プライバシー労働とは、あるに自分が主体または受信者であるデータ処理が適切であることを保証する作業をさせる慣行であり、処理を行うアクターに責任を負わせる代わりに行われます。人々同意を求めるデータシステムは、プライバシー労働を増やす傾向があります。

より一般的には、プライバシーの実装はしばしば人々に労働を負わせます。これは特に1970年代にデータベースに関する懸念に対抗して個人の自律性を支援するために最初に展開された緩やかな原則群である公正情報慣行(FIPs)に由来する制度で顕著です。FIPsは、当時の想定では処理が十分に少なく、各人が十分な注意義務を果たして意思決定において自律的であり得ると仮定していました。FIPsは、プライバシー労働を人々に負わせ、無制限の自律性を仮定しているため、特定の種類のデータ処理を禁止するのではなく、それらを異なる手続き的要件の下に置くだけです。このアプローチはもはや適切ではありません。

手続き的アプローチの一つの顕著な問題は、同じ要件が、モノポリー的なプラットフォームが提供する必須サービスを利用する人のように別のアクターとの間に重大な権力の非対称性を抱える状況と、人と他のアクターがほぼ対等である状況、あるいは小規模事業者のように人の方がより大きな権力を持つ場合とで同じ要件を課す傾向がある点です。また、一つのアクターが他のアクターに不適切な慣行を促すよう強要する場合(広告やコンテンツ集約における支配的プレイヤーにしばしば見られるように)を考慮していません。

FIPsへの言及は今日まで残っています。しばしば「透明性と選択」と呼ばれますが、今日のデジタル環境では、これはしばしば不適切な処理が説明されている兆候であることが多いです。

1.2 脆弱性

ときに、子どもや高齢者のような特定の集団が脆弱な人々として分類されます。しかし、どのも、ある文脈では脆弱になり得ますし、時にはそれに気づかないこともあります。あるは個人データを開示したときに自分が脆弱であることや将来脆弱になる可能性があることに気づかないかもしれませんし、アクターがその人の脆弱性を知る方法を持たない場合もあります。システム設計者はこれを設計において考慮すべきです。

個人データの収集、誤用、紛失、または盗難の結果として、ある個人がプライバシーリスクや被害に対してより脆弱である場合があります。その理由としては:

追加のプライバシー保護は、脆弱な人々の個人データや、個人データが収集・使用・共有された場合に誰かを脆弱にする可能性のある機微情報に対して必要とされる場合があります(例:トラッキング要素、センサーデータ、インストールされているソフトウェアや接続されたデバイスに関する情報のブロック)。

時には他者(親、保護者、仲間など)が脆弱な人々がプライバシーリスクを評価しプライバシーに関する決定を行うのを助けることがありますが、誰もが独自のプライバシー権を有します。

1.2.1 保護者

一部の脆弱な人々は、自分のウェブ利用に関して適切な決定を行うのを助けるための保護者を必要とします(例:子どもで、その親がしばしば保護者として行動する場合)。保護者を持つ人は被保護者(ward)と呼ばれます。

被保護者は、情報に基づいた決定を行い、自分のプライバシー権に関して自律性を行使する権利を有します。保護者には、その被保護者の能力が十分でないときに、その被保護者が自己決定できるよう助けるという義務があります。実際には、多くの 保護者が被保護者の最善の利益に沿った決定を行わないことがあり、ウェブプラットフォーム技術がこの状況に内在するリスクを悪化させないことが重要です。

ユーザーエージェントは、慈悲深い保護者が被保護者を危険から守る必要性と、被保護者が悪意ある保護者から自分を守る必要性のバランスを取るべきです。

ユーザーエージェントは、被保護者を、2.8 デバイスの所有者と管理者の原則に従うことで保護でき、被保護者に関する情報を保護者に提供するのは、その保護者が被保護者の責務を果たすのを助ける目的に限られるべきです。そのメカニズムには、保護者が被保護者の利益に反して行動していることに気づいた被保護者を助けるための手段を含める必要があります。

1.3 集団的ガバナンス

プライバシー原則は社会的プロセスを通じて定義されるため、ある文脈でのプライバシーの適用される定義は争われ得ます([Privacy-Contested])。これはプライバシーを集団行動の問題にします([GKC-Privacy])。集団レベルのデータ処理は、個人が同意できるという楽観的な仮定の下でも、集団や個人に影響を与え得ます。例えば、ある人が特定のアクターに明かすことを望む唯一のことがその人が特定のグループの一員であるということかもしれません。しかし、同じグループの他のメンバーは同じアクターとやり取りしてもっと多くの情報を明かしており、その結果、情報を提供しない人々についても効果的な統計的推論が可能になることがあります。

したがって我々が考慮するのは、データを共有する人々とその共有を招くアクターの関係だけでなく、同じく別の人々がグループの一部として間接的に分類され得るという点でもあります。こうした関係は非識別化されても持続し得ます。さらに、そのような人々のカテゴライズ(任意であれそうでなかれ)は世界の運営の仕方を変えます。これは自己強化的なループを生み、個人やグループの両方に害を与え得ます([Seeing-Like-A-State])。

一般に、データにおける集団的問題は集団的な解決を必要とします。ウェブ標準はデータガバナンスを支援し、ユーザーエージェントに構造的制御を定義し、研究者や規制当局がグループレベルの乱用を発見できるようにし、プライバシーの問題を扱える機関を確立または委任することで役立ちます。ガバナンスは主に個人のコントロールを増やすことで機能しようとすると、その目標を達成するのに苦労することが多いでしょう。

大規模でのデータ収集は重大な公益的成果をもたらすことがあります。問題は、しばしばあるアクターが集団の利益のためにデータを処理しつつ、同時に不誠実な(disloyal)目的のためにも処理する場合に生じます。不誠実な目的はしばしば公益的成果の資金として正当化されますが、それが適切であるためには集団的な監視が必要です。

1.3.1 グループのプライバシー

人々がグループのメンバーになる方法は異なります。自発的に参加してクラブのように自己構成されたグループになる場合もあれば、官僚機構やその電算化された同等物によって外部のアクターにより分類される場合もあります([Beyond-Individual])。後者の場合、人々は自分がグループに分類されていることに気づかないかもしれず、グループの定義は(たとえば不透明な機械学習手法から作られる場合など)理解し難いことがあります。

グループのプライバシーを保護することは二つのレベルで行えます。グループの存在や少なくともその活動は、メンバーが匿名のままであることが保証されている場合でも保護される必要があるかもしれません。これを「グループのプライバシー」と呼びます。逆に、人々はたとえグループの存在や行動が広く知られていても、自分がそのグループのメンバーであるという知識を守りたいかもしれません(例えば権威主義体制下の反体制派運動への参加)。これを「メンバーシップのプライバシー」と呼びます。前者の例としては、フィットネスアプリのStravaが個々の行動や法的身元を公開しなかったが、人気のあるランニングコースのヒートマップを公開することで米軍基地周辺の秘密の拠点を明らかにした事例が挙げられます([Strava-Debacle], [Strava-Reveal-Military])。

少人数のグループに関する情報が処理されると、個別のデータが露出していなくても人々のプライバシー利益が影響を受けることがあります。例えば、教室の生徒たちの閲覧活動は、教師がどの生徒が特定の健康問題に関するリソースにアクセスしたかを正確に知ることがなかったとしても敏感であり得ます。特定の診療所を訪れた人々や特定の陪審員に選ばれた人々に情報をターゲティングすることも、個人を特定するデータがなくても侵襲的である場合があります。

人々が自分がグループのメンバーであることを知らないとき、権利を共同で主張するために他のメンバーを容易に見つけられないとき、あるいはなぜ自分があるグループに分類されているのかを容易に理解できないとき、自己統治的アプローチで自分を守る能力はほとんど失われます。

グループのプライバシーにおける一般的な問題の一つは、グループのあるメンバーの行動が他のメンバーが共有されたくない情報を明らかにしてしまう場合です。例えば、ある人がイベントの写真を公開するとき、その写真に写っている他の人々は自分の参加が明らかにされることを望まないかもしれません。連絡先をアップロードできるサイトの例では、アップロードを行う人が自分のソーシャルネットワークを公開することにより寛容であっても、接続されている他の人々はそれを望まないかもしれません。こうした問題には単純で明快な解決策が存在しない場合が多いですが、ウェブサイトを構築する人々はそれらを慎重に検討する必要があります。

1.3.2 透明性と研究

透明性は個々の人々が行う選択を十分に助けることはまれですが、研究者や記者がプライバシー原則に関する集合的な意思決定を情報提供することを可能にする上で重要な役割を果たします。この考慮は、TAGのStrong and Secure Web Platformに関する決議を拡張し、「情報の流れ」や自動化された決定が関与する場合に広範なテストと監査が継続して可能であることを確保するものです。

そのような透明性は、(自分の個人データから派生したデータを含む)データへの強いアクセス権と、自動化された決定の結果を説明する仕組みが存在する場合にのみ機能します。

1.4 ユーザーエージェント

ユーザーエージェントは、(そのユーザー)とウェブとの間の仲介者として機能します。ユーザーエージェントは、可能な限り集団的ガバナンスが個人に有利に定める原則を実装します。情報の非対称性の創出を防ぎ、ユーザーのために自動化によって自動化の非対称性を是正するオートメーションを提供します。可能な場合には、侵入的なメッセージの受信からユーザーを保護します。

ユーザーエージェントは、それを使用すると完全に整合し、そのの利益のみで動作することが期待されます。それは第一当事者ではありません。ユーザーエージェントはそのユーザーを優先する信頼できる代理人(trustworthy agent)として機能します:常にその人の利益を第一にします。場合によっては、危険な決定の実行を防いだり、決定を遅らせたりして、その人から自分自身を守ることを意味することもあります。例えば、ユーザーエージェントはサイトの正当性を検証できない場合にそのサイトへの接続を難しくするでしょう。ページに対して敏感なデバイスを公開しようとする人が本当にそう意図しているかを確認します。行動の恒久的な監視に同意させることを防ぎます。そのユーザーエージェントの義務には以下が含まれます([Taking-Trust-Seriously]):

保護の義務(Duty of Protection)
保護はユーザーエージェントが単なるセキュリティ対策を超えてユーザーのデータを積極的に保護することを要求します。保存時や送信時の暗号化だけでは不十分です。ユーザーエージェントは保持期間を制限し、厳密に必要なデータのみが収集されるよう支援し、データが共有されていることをユーザーエージェントが合理的に認識できるようにするためにどのようなアクターから保証が得られるかを要求する必要があります。
裁量の義務(Duty of Discretion)
裁量はユーザーエージェントが管理する個人データの開示方法に注意を払い、原則を施行するために最善を尽くすことを要求します。裁量は機密性や秘密性と同一ではありません:ユーザーエージェントがある程度の個人データを共有しても、適切に配慮された方法であれば信頼は維持できます。
誠実さの義務(Duty of Honesty)
誠実さはユーザーエージェントがユーザーに対して、ユーザーエージェントが合理的に把握し得る、その人に関連し自律性を高める情報を提供することを要求します。ただし、それはユーザーが理解できるものであり、適切なタイミングで行われるべきです。これはユーザーがページを読んだり機能を起動したりしている時など、ほとんどの場合には適切ではありません。誠実さの義務は、従来のプライバシー体制に含まれる透明性の義務をはるかに超えます。透明性とは異なり、誠実さは関連情報を複雑な法的文書に隠したり、同意ダイアログでの非常に短い要約に依存したりすることはできません。もしその人が自分の個人データの処理同意している場合、ユーザーエージェントはその人に進行中の処理について、処理の合理的に予測される影響の大きさに比例した明白さのレベルで通知するべきです。
忠誠の義務(Duty of Loyalty)
ユーザーエージェントは信頼できる代理人であるため、実装者よりも含め常にそれを使用するに忠実であると見なされます。ユーザーエージェントが行う処理がユーザーの利益に反し、代わりに他のアクターに利益をもたらす場合、これは不忠(disloyal)です。多くの場合、これはユーザーエージェント自身に利益をもたらし、その場合は「自己取引(self-dealing)」と呼ばれます。ある行為が同時にユーザーの利益に沿った処理を行っている場合でも、それが他方の利益と潜在的に矛盾するならば行為は不忠であり得ます。さらに、追加の処理はほとんど常に追加のリスクを意味することを忘れてはなりません。したがってユーザーの利益に明示的に沿っていない処理は不忠である可能性が高いです。不忠は常に不適切です。

これらの義務により、ユーザーエージェントがそのユーザーを配慮して世話することが保証されます。学術研究では、この信頼できる代理人との関係はしばしば「受託者的(fiduciary)」と表現されます([Fiduciary-Law], [Fiduciary-Model], [Taking-Trust-Seriously];長めの非公式な議論については[Fiduciary-UA]を参照)。一部の法域では「受託者(fiduciary)」に対して異なる法的意味を持つ場合があります([Fiduciary-Law])。

この文書の残りで説明される多くの原則は、ユーザーエージェントの義務を拡張し、それらをより明確にします。

1.5 異なるプライバシー原則の組み込み

プライバシー原則は互いに連携して補完するよう設計されていますが、あるプライバシー原則の順守を改善するための提案が別の原則の順守を減少させることが稀にあります。

Principle 1.5.1: 明白なトレードオフに直面した場合、まずすべての原則を同時に改善する方法を探してください。

全ての原則を完全に満たしていない初期設計があるとき、通常は他のいくつかの設計があり、それらはある原則に関して状況を改善しつつ他の原則に関しては何も犠牲にしないことができます。そのような設計を見つけるよう努めてください。

別の言い方をすると、原則の間でトレードオフを始める前にパレート改善を探してください。

ウェブサイトユーザーエージェントAPI デザイナー

パレートフロンティア上の異なる設計の間で選択する場合、どのプライバシー原則を優先するかの選択は複雑で、各状況の詳細に大きく依存します。人々のプライバシーは非プライバシー上の懸念とも緊張することがあります。Ethical Web Principlesで議論されているように、「特定の技術が適用される文脈、想定される対象、技術が誰に利益をもたらし誰に不利益を与えるか、および関与する権力力学を考慮することが重要です」([Ethical-Web-Principles])。この複雑さにもかかわらず、従うべき基本的なルールがあります:

Principle 1.5.2: サービスが利用者または他の利用者を保護するために追加データを収集する必要がある場合、そのデータがサービスの成長などの他目的に使用されないように追加の技術的および法的措置を講じる必要があります。

これは、データが収集されたときに指定された目的以外にデータを使用すべきでないというより一般的な原則の特別なケースです。

サービスは時折、人々のデータを使用してその人自身や他の人々を保護します。そのようなサービスは、どのデータをこの目的で使用しているかを説明すべきです。また、サービスはその人がサービスのルールに違反したと信じる場合に、その人のデータをどのように使用または共有し得るかも述べるべきです。

ウェブサイトユーザーエージェント

誰かが使用しているサービスのルールに違反した場合、その人はプライバシー保護を相応に犠牲にするという考えは魅力的ですが、

  1. しばしばサービスは違反を防ぐために無実のユーザーからもデータを収集しなければならないことがあり、この追加収集は常に適切であるとは限らず、常時監視を可能にすることがあります([RFC7258], [RFC7687]).
  2. サービス事業者が追加データを収集したい場合、収集を可能にするようなルールや比例性を定義しがちです。

次の例はこれらの緊張のいくつかを示しています:

2. ウェブにおけるプライバシーの原則

このセクションでは、一般的なウェブの文脈に適用されるよう設計された一連の原則について述べます。ウェブ上の特定の文脈では、より多くの制約や別の考慮が必要な場合があります。今後、より特化したウェブ上の文脈に向けた、より専門的なプライバシー原則が公開されることが期待されます。

これらの原則はユーザーエージェントによって実施されるべきです。これが不可能な場合は、他の主体がそれらを実施する方法を見つけることを推奨します。

2.1 ウェブ上のアイデンティティ

Principle 2.1: ユーザーエージェントは、各文脈において利用者が望むアイデンティティを提示するのを助け、適切に認識を防止または支援するべきです。
ユーザーエージェント

個人アイデンティティは、その人を定義する特性の集合です。ある文脈におけるアイデンティティは、特定の状況下で提示される特性の集合を指します。

人は異なる文脈に対して異なるアイデンティティを提示でき、また単一のアイデンティティを複数の文脈で共有することもできます。

人は一時的または匿名のアイデンティティを提示したいと望むことがあります。これは、時間を通じて追跡するのに有用でないほど小さいか不安定な特性の集合です。

人のアイデンティティは、しばしば本人が持つ法的なアイデンティティとは異なる場合があります。

場合によっては、この原則を守るためにユーザーエージェント認識を防ぐことが最良の方法であることがあります(例:あるサイトが別のサイトでの利用者の振る舞いについて何も学べないようにする場合)。

別の状況では、この原則を守る最良の方法はユーザーエージェント認識支援することです(例:利用者があるサイトに対して別のサイト上で特定のアイデンティティを持っていることを証明するのを助ける場合)。

同様に、ユーザーエージェントは、同一のサイトへの繰り返しの訪問において、認識を防止または支援することで利用者を助けることができます。

ユーザーエージェントは、サイト内の文脈を可能な限り区別し、利用者の希望に応じてそれらのサイト内文脈間での認識を防止または支援するために自らのパーティションを調整すべきです。

2.2 データ最小化

Principle 2.2.1: サイトユーザーエージェント、およびその他の アクターは、ユーザーの目標を達成するために必要なもの、またはユーザーの希望や利益に沿うものにのみ転送するデータに制限するべきです。
ウェブサイトユーザーエージェント
Principle 2.2.2: Web API は、サイトがユーザーの目標を達成するために要求するデータ量を最小化するよう設計されるべきです。 Web API はまた、サイトに送信される個人データに関して粒度やユーザーによる制御を提供するべきです。
APIデザイナー

データ最小化は、データが露出または誤用されるリスクを制限します。また、ユーザーエージェントや他のアクターが、そのユーザーが行う必要のある意思決定をより意味のある形で説明するのにも役立ちます。詳細は Data Minimization in Web APIs を参照してください。

データ最小化の原則は、特定の識別性、機微性、または他の有害性が知られていない場合でも、すべての個人データに適用されます。参照: 2.4 機微情報

2.2.1 付随的使用

サイトは時にユーザーの一次的な目標のために必要ない方法でデータを使用することがあります。例えば、広告主に請求したり、サイトのパフォーマンスを計測したり、開発者にバグを知らせたりすることがあります。これらは付随的使用の例です。

付随的使用とは、データの処理が、そのデータの主体である個人以外のアクターに主に直接的な利益をもたらすような場合を指します。個人データの付随的使用は、その個人に間接的な利益をもたらすことはありますが、その利益は間接的です。 例えば、広告主に課金できることはサイトの運営を維持し将来的な利用を可能にするという利益をもたらしますが、この利益は主にサイト所有者が享受するものです。

サイトは付随的使用のために多様な場所から必要なデータを取得することがあります:

非付随的API
ユーザーの即時の目標をサポートするよう設計された Web API(例:DOM イベント要素位置監視)。
既存情報から計算される付随的API
Event Timing APIIntersectionObserver のように、非付随的APIから利用可能な情報をフィルタリング、要約、または時間シフトするAPIです。 既存の非付随的APIを新しい付随的APIの正当化に使用する際の制限は、2.3 Information access を参照してください。
新しい情報を提供する付随的API
付随的使用を支援するために主に有用な新しい情報を提供するAPI(例:element paint timingメモリ使用測定、および deprecation reports)。

これらすべてのデータ源は、人の設定、デバイス、環境、または振る舞いに関する個人データを明らかにする可能性があり、それらは機微な情報であったり、ブラウザフィンガープリンティングの一部として人を認識するために使用されたりすることがあります。2.2 データ最小化の原則を守るために、サイトユーザーエージェントは、人々のこのデータ使用に関する目標や好みを理解し尊重するよう努めるべきです。

作業部会は、ユーザーエージェントが既存情報から計算される付随的APIをどのように扱うべきかについて合意に達していません。これらのAPIの支持者は、それらが個人データを抽出するのが難しく、同じ情報を非付随的API経由で収集するより効率的であり、多数のユーザーがそれらをオフにするとサイトがそれらを採用しにくくなり、それらをオフにする行為自体がブラウザフィンガープリンティングに寄与する可能性があると主張します。一方、反対者は、データがより容易または安価に収集できるならばより多くのサイトがそれを収集するようになり、リスクは依然としてあるため、ユーザーはサイトの機能を直接壊すことのないこのクラスのAPIを無効にできるべきだと主張します。

異なるユーザーは異なる好みを持つ可能性があるため:

Principle 2.2.1.1: 既存情報から計算される付随的APIと新しい情報を提供する付随的APIの仕様は、それらをそのように識別するべきであり、ユーザーエージェントが利用者に適切な選択肢を提供できるようにするべきです。
APIデザイナー
2.2.1.1 新しい情報を提供する付随的APIの設計
Principle 2.2.1.1.1: 新しい情報を提供する付随的APIは、他のAPIを通じて既に利用可能でない限り、利用者の意向や利益に沿うことを示す場合を除き、新たに個人データを公開してはなりません。
APIデザイナー

ほとんどの付随的使用は、サイトが個人を特定するような個人データを学ぶ必要はありません。例えば、サイトのパフォーマンス測定や広告課金は、多数のユーザーのデータを平均化または合算することで個々の寄与が不明瞭になります。プライベート集計技術は、関与する人々の識別を防ぐことで、APIが個人データを露出せずに利用ケースを満たすことを可能にすることが多いです。

Note

いくつかの付随的使用は、データが人に関連している必要がない場合がありますが、多数の人々に渡る有用な集計をウェブAPIに組み込むのは難しいか、新しい技術の発明が必要な場合があります。API設計者がこの状況を扱う方法の例には次のものがあります:

  • 時にはAPIがデータを非識別化できる場合がありますが、ウェブページが収集されるデータに何らかの入力を持つ場合には困難です。
  • API設計者は、APIが新たな個人データを公開していないことを注意深く確認できます(2.3 Information accessで述べられているように)。例えば、APIはその人が高速なグラフィックスカードを持っている、クリックが遅い、あるいは特定のプロキシを使用していることを示すかもしれませんが、クリックが遅いという事実は既に避けられない形でDOMイベントのタイミングによって露出しています。
  • ユーザーエージェントは、このクラスのAPIを有効にするために利用者の許可を求めることができます。これはプライバシー労働を増やすリスクがありますが、例えばユーザーエージェントが各API使用ごとにではなく一般的にこのデータ共有を支持するかどうかを初回起動ダイアログで尋ねることができます。

APIがこれらの選択のいずれかを行わなければならず、その後でAPIの他の何かを変更する必要が生じた場合、設計者は個人データの露出を避ける新しいAPIに置き換えることを検討するべきです。

いくつかの他の付随的使用は、個人が自分のデータに結び付けられることを必要とします。例えば、ある人が自分の特定のコンピュータでサイトが壊れるというバグ報告をしたい場合、開発者とフォローアップのやり取りを行えることは妥当であり、この場合にその人の許可を求めるのが適切です。

Principle 2.2.1.1.2: ユーザーエージェントは、新しい情報を提供する付随的APIを有効化または無効化する方法を提供すべきであり、デフォルトは利用者のニーズに応じて設定されるべきです。
ユーザーエージェント

ある人は自身の特定の状況についてAPI設計者の一般的な決定が不適切であることを知っているかもしれません。新しい情報を提供する付随的APIが他の方法で得られない情報を提供する場合、ユーザーエージェントはそれらをオフにすることを許可すべきです(ただし、そのことでブラウザフィンガープリンティングのリスクが増す点に注意してください)。

2.3 情報へのアクセス

Principle 2.3: 新しい Web API は、プラットフォーム上に残ることが期待される既存の API と同等以上に利用者の情報を保護するべきです。
APIデザイナーユーザーエージェント

サイトが利用できる多くのAPIは、人々やウェブサーバー、その他についての情報に組み合わせてできる多くのデータを露出します。

ユーザー制御の設定や許可は、ウェブ上のデータへのアクセスを守るためのアクセスガードとなり得ます。ウェブAPIを設計する際には、アクセスガードを使用して、APIが情報を適切な方法で露出することを確保してください。

情報を取得する新しい方法を追加する新しい API は、既存の方法と比べて少なくとも同等に保護されるべきです。

あるセットのアクセスガードの下で露出することが許容される情報は、別のセットの下では許容されない場合があります。API 設計者が、自らの新しい API が既存の許容される API と同じ情報を既に露出しているため許容されると説明しようとする場合、彼らは新しい API が少なくとも同等に厳しいガードの下でのみ利用可能であることを確認する必要があります。そうしたガードがない場合、既存の API に頼らずに最初から論証する必要があります。

既存の API がある情報へのアクセスを提供しているが、それらの API を変更してそのアクセスを防ぐ計画がある場合、新しい API は同じ情報を提供するものを追加してはならず、アクセスが適切であることを確保する追加のアクセスガードを含む必要があります。

例えば、ブラウザは異なるパーティション間でアイデンティティを結びつける能力を段階的に削除しています。新しい API がクロスコンテキストの認識を再び可能にする機能を追加しないことが重要です。

2.3.1 避けられない情報の露出

ウェブのいくつかの機能は歴史的に人々のプライバシーを損なうために使われ得る特徴を通じて提供されてきました。今すぐにでも露出を避けたほうがよいすべての情報へのアクセスを取り除くことはまだ不可能です。

この種の情報に不可避的にアクセスを提供する新しい API は、既存の同等のウェブプラットフォーム機能と比較してその情報へのアクセスを容易にしてはなりません。

これらの API を記述する仕様は次の点も明確にするべきです:

  • 将来的にウェブプラットフォームの変更で同じ情報への他のアクセスを削除できるようになった場合に、そのアクセスをどのように除去するかを明らかにすること。
  • この種の情報へのアクセスをブロックする(他のブラウザが壊したくないいくつかの体験を壊すことで)ユーザーエージェントが、新しい API がその情報を追加で露出しないようにどのように防げるかを明らかにすること。

2.4 機微情報

Principle 2.4: クレジットカード番号や精密な位置情報のような情報カテゴリが機微であるという広範な合意はありますが、システム設計者は他のカテゴリがそれゆえに機微でないと仮定すべきではありません。情報が機微と見なされるかどうかは、個人の状況ややり取りの文脈によって異なり、時間とともに変化する可能性があります。
ウェブサイトユーザーエージェントAPI デザイナー

誰かについての多くの情報片は、露出するとプライバシー被害を引き起こす可能性があります。例えば:

特定の情報片は人によって敏感度が異なる場合があります。機微な情報が露出したり露出する可能性があると、人々は脆弱になることがあります。詳細は 1.2 脆弱性 を参照してください。

2.5 データ権利

Principle 2.5: 人々は自分に関するデータに関して一定の権利を有しており、これらの権利はその人のユーザーエージェントおよびそのアクター(そのデータを処理している者)によって支援されるべきです。
ウェブサイトユーザーエージェントAPI デザイナー

データ権利だけではウェブのすべてのプライバシー原則を満たすには不十分ですが、それらは自己決定を支援し説明責任を改善するのに寄与します。こうした権利には次が含まれます:

この権利には、自分について収集または推論された情報を確認できることや、自分について情報を収集したアクターを発見できることが含まれます。その結果、人々についての情報を含むデータベースは秘密に保持することができず、人々が自分に関するデータを意味のある形で発見できる必要があります。

個人は、サービスの使用を完全に終了するかどうかにかかわらず、自分に関する情報を消去する権利を有しますが、どのデータが消去可能かはその二つのケースで異なるかもしれません。ウェブ上では、個人はデバイス上やサーバー上、あるいはその両方のデータを消去したい場合があり、データの所在が常にその人に明確であるとは限りません。

移植性は、異なるデータ慣行を持つサービス間で選択するために個人が能力を持つことをサポートするために必要です。再利用のためには相互運用性の標準が不可欠です。ユーザーデータの移植は Portability-Threat-Model に記載されたようなセキュリティとプライバシーのリスクを伴います。

重大な結果を伴う種類の意思決定については、自分を自動プロファイリングから除外できることにプライバシー上の利益があります。例えば、あるサービスは製品価格(価格差別)やクレジットや保険に関するオファーをその人について収集されたデータに基づいて変更するかもしれません。これらの変更は重大であり(例えば金銭的に)不正確または不当であると信じる人々にとっては異議を唱え得ます。また、サービスがカメラデータ上で顔認識アルゴリズムを実行してユーザーのアイデンティティや人間性、存在を推定することがあり得ます。顔認識アルゴリズムや訓練データセットは誤りやバイアスを示すことがあるため、人々はその種の自動認識に基づく決定に服したくない場合があります。

人々は同意を変更したり、自分に関するデータの後続使用に異議を唱えたりするかもしれません。データ権利は、収集時の選択だけでなく継続的なコントロールを個人が持つことを意味します。

OECD プライバシー原則、Records, Computers and the Rights of Citizens、GDPR などは、人々がデータ主体として持つ多くの権利を記述しています。これらの参加的権利は、自律性に固有のものです。

2.6 非識別化データ

Principle 2.6: 可能な限り、処理者は非識別化されたデータを扱うべきです。
ウェブサイトユーザーエージェントAPI デザイナー

データは、当該データだけ、または他の利用可能な情報と組み合わせても、そのデータで記述された個人が直接的または間接的に(例:識別子、ユーザーエージェント、デバイスとの結び付けによって)識別できないという高い信頼度が存在するときに非識別化とみなされます。多くの地域の規制はデータが非識別化と見なされるための追加要件を定めていますが、それらの要件をプライバシー保護の最大限度として扱うべきではありません。集団に関連するさらなる考慮は 集団における問題 セクションで扱われます。

管理された非識別化データとは次のような場合を指します:

  1. データの状態が、個人を再識別するのに使える情報が削除または変更されていること、そして
  2. 個人を再識別しようとする試みや非識別化データの偶発的な漏洩を防ぐためのプロセスが存在すること。([De-identification-Privacy-Act])

管理された非識別化データに関するさまざまな状況は、異なる管理策を必要とします。例えば、管理された非識別化データが単一のアクターによってのみ処理される場合、典型的な管理には、データに使われる識別子がそのデータセットに固有であることを確保すること、データにアクセスできる任意の人(例えばアクターの従業員)がデータをさらに共有することを法的条件等で禁じられていること、再識別や異なるデータセットの結合を防ぐ技術的手段が存在することなどが含まれます。

一般に、目標は技術的および手続き的手段によって擬名性の維持を保証するための監視と説明責任が実行可能な度合いで提供されるように、管理された非識別化データが使用されることを確保することです。

このような管理された非識別化データが複数のアクター間で共有される場合、そのような場合はより困難になります。そのような場合に代表的な最良慣行の典型例には次を確保することが含まれます:

注意:管理された非識別化データそれ自体だけでは、データ処理を適切なものにするには不十分です。

2.7 集合的プライバシー

Principle 2.7: グループや組織は、データ共有を防止または可能にする決定を集団的に行い、データ処理ルールのデフォルトを設定することで自律性を支援するべきです。
ウェブサイトユーザーエージェント

プライバシー原則はしばしば個人に権利を拡張するという観点で定義されますが、どの原則が適用されるべきかを決めるのがグループを代表して集団的に行うのが最適である場合があります。集団的意思決定を検討すべき場合:

どのデータが処理されるかによって、集団的意思決定の正当な形態は異なります。これらの形態は、さまざまな行政レベルの政府機関、標準化組織、労働者の交渉単位、あるいは市民社会のフォーラムなどであり得ます。集団的意思決定は個人にプライバシー労働を負わせるよりも優れていることがありますが、万能薬ではありません。意思決定機関は慎重に設計される必要があり、例えば Institutional Analysis and Development フレームワークのような方法を使うべきです。

2.8 デバイスの所有者と管理者

Principle 2.8: ユーザーエージェントは、デバイスやソフトウェアの使用に関して合理的な制約を施行するために必要な場合を除き、管理者にユーザーの振る舞いを報告してはなりません。開示が合理的である場合であっても、ユーザーエージェントは利用者にその監視について知らせる必要があります。
ユーザーエージェント
Note

脆弱な人々とその保護者にこの原則がどのように適用されるかの詳細は、1.2.1 保護者を参照してください。

コンピュータデバイスには、プログラムのインストールや設定のためにデバイスに特権的アクセスを持つ管理者がいます。デバイスの所有者は、デバイス全体を管理するために管理者を認可することができます。いくつかのユーザーエージェントの実装は、ログインしているアカウントに基づいて特定のユーザーエージェントを管理する管理者を割り当てることもできます。

ときに、デバイスを使用しているはデバイスを所有しておらず、管理者権限を持たないことがあります(例:雇用者が従業員にデバイスを提供する場合、友人がゲストにデバイスを貸す場合、親が幼い子にデバイスを提供する場合)。また、デバイスの所有者で主要な利用者であっても管理者アクセスを持つのがその人だけでない場合もあります。

これらの関係は権力の不均衡を含むことがあります。子どもは親が提供するデバイス以外のデバイスにアクセスするのが難しいかもしれません。虐待の被害者は、パートナーがデバイスに対する管理者アクセスを持つのを防げないかもしれません。従業員は職を維持するために雇用者のデバイスを使用することに同意しなければならないことがあります。

デバイスの所有者はデバイスが意図した方法で使用されることを確保する利害や時には責任を持ちますが、デバイスを使用する人は使用中にプライバシー権を持ち続けます。この原則はこの使用中のプライバシー権を二つの方法で強化します:

  1. ユーザーエージェントの開発者は、デバイス所有者や管理者からの要求が合理的かどうかを検討し、販売が減るとしても不合理な要求を実装するのを拒否する必要があります。所有者/管理者の必要性は利害関係の優先順位においてユーザーの必要を上回るものではありません。
  2. 情報開示が合理的である場合でも、その情報が開示される当該のはそれについて知る必要があり、望ましくない結果を招くような行動を避けられるようにするべきです。

いくつかの管理者からの要求は、従業員や子どものような特定の種類のユーザーにとっては合理的であるかもしれませんが、友人や親密なパートナーのような他の種類のユーザーには合理的でない場合があります。ユーザーエージェントは、管理者が何を学ぶことになるのかを説明し、異なるユーザーがそれに対して適切に反応できるようにするべきです。

2.9 ウェブ利用者を虐待的行為から保護する

Principle 2.9.1: ウェブ上でのコミュニケーションを可能にするシステムは、虐待を報告するための有効な機能を提供しなければなりません。
ウェブサイトAPIデザイナー
Principle 2.9.2: ユーザーエージェントサイトは、利用者を虐待的行為から保護するための措置を講じるべきであり、虐待の緩和はウェブプラットフォーム機能の設計時に考慮されるべきです。
ウェブサイトユーザーエージェントAPI デザイナー

デジタル上の虐待とは、デジタル手段を通じた人への不当な扱いを指します。オンラインの嫌がらせは「有害な行為を通じてオンラインで個人または集団を執拗または重大に標的にすること」であり、これは虐待の一形態です([PEN-Harassment])。嫌がらせはウェブ上で広く見られる問題で、特にソーシャルメディア上で顕著です。嫌がらせは誰にでも影響を与える可能性がありますが、LGBTQ の人々、女性、人種的・民族的マイノリティ、障害のある人々、脆弱な人々やその他の周縁化された集団ではより深刻で影響が大きい場合があります。

嫌がらせはプライバシーの侵害自体であると同時に、他のプライバシー侵害によって助長または悪化され得ます。

嫌がらせには、望まれない情報の送信(unwanted information)、他者にある人へ連絡や迷惑をかけるよう指示する行為("dogpiling")、個人の機微情報の暴露、虚偽の情報の投稿、なりすまし、侮辱、脅迫、憎悪や侮蔑的な言動などが含まれます。

識別情報や連絡先情報の開示(ドキシングを含む)は、継続的な望まれない情報を送る追加の攻撃者を引き起こすためにしばしば利用され得ます。位置情報の開示はその人の身体的安全や空間への侵入に使われ得ます。

報告メカニズムは緩和策ではありますが、ホストやモデレーター、その他の仲介者が虐待を支持しているか共謀している場合には、特に嫌がらせを防げないことがあります。

有効な報告には次が必要です:

Note

望まれない情報は、個々には通常無害でも集積すると迷惑になるメッセージ(スパム)から、露骨でグラフィックな暴力画像の送信まで、広範囲の未請求の通信を含みます。

システム設計者は、望まれない情報の送信をより困難または高コストにし、送信者の説明責任を高める措置を講じるべきです。

2.10 目的限定

Principle 2.10.1: 個人データにアクセスする際や許可を要求する際、サイトや他のアクターは、そのデータが使用される目的を明示するべきです。
ウェブサイトユーザーエージェント
Principle 2.10.2: アクターは、指定された目的以外の目的で個人データを使用してはなりません。(これらのその他の使用はしばしば二次利用と呼ばれます。)
ウェブサイトユーザーエージェント

目的に特化して設計された機能は、ある目的にのみまたは主に有用な機能を提供することでこれらの原則を促進します。目的特化の機能は、人々に目的を説明しやすくし、データの実現可能な二次利用を制限することもあります。目的特化機能を構築する際には、高レベル API と低レベル API のトレードオフを検討してください。

管理された非識別化データは、指定された目的と互換性のある追加目的で使用され得ます。

2.11 透明性

Principle 2.11.1: データにアクセスする際や許可を要求する際、サイト(および他のアクター)は、人々にデータの使用に関する関連する説明情報を提供し、ユーザーエージェントはその情報の提示と利用を助けるべきです。
ウェブサイトユーザーエージェント

透明性は同意にとって必要ですが不十分な条件です。関連する説明情報には、誰がデータにアクセスしているか、どのデータがアクセスされるか(そのデータから導かれる可能性のある推論や組み合わせを含む)、およびデータがどのように使用されるかが含まれます。透明性が人々にとって意味のあるものとなるためには、説明情報は関連する文脈で提供されなければなりません。

Note

権限を伴う新しいウェブ機能を設計する際には、その権限が本当に必要か、そしてどのようにその権限を意味あるものにするかを検討してください(Adding-Permissions を参照)。過去のワークショップもウェブ上のより良い権限のニーズを検討しています。

  • 2022 W3C Workshop on Permissions
  • 2018 W3C Workshop on Permissions and User Consent
  • 2014 Next steps on trust and permissions for web applications

Principle 2.11.2: プライバシーに関連する慣行に関する情報は、分かりやすい平易な言葉での形式と機械可読形式の両方で提供されるべきです。
ウェブサイトAPIデザイナー

プライバシー関連の慣行の機械可読な提示は、ユーザーエージェントが、人々が毎回ウェブサイトを訪れる前に文書を読むことができるかのように誤って依存するのではなく、一般的な意思決定を手助けするために必要です。機械可読の提示はまた、研究者や規制当局がデータ収集と処理を発見、文書化、分析して有害なケースを特定できるようにすることで、集団的ガバナンスを促進します。

分かりやすい平易な言葉での提示は、人々が特定のケースで情報に基づいた決定を行うために必要です。サイトユーザーエージェント、およびその他のアクターは、プライバシー関連の慣行をアクセス可能な形で人々に提示する必要があります。

Principle 2.11.3: 人を認識するために使われ得るメカニズムは、その動作がユーザーエージェント、研究者、および規制当局にとって可視かつ識別可能となるよう設計されるべきです。
ウェブサイトAPIデザイナー

非透明な方法での認識は、それがユーザーに可視でないために有害であり、ユーザーコントロールを損ないます。データを最小化し、データ要求を明示にする機能を設計することで、検出可能性を可能にし、これはブラウザフィンガープリンティングに対する重要な緩和策となります。

2.13 通知と中断

通知や他の中断的な UI は注意を引く強力な手段になり得ます。使用しているオペレーティングシステムによっては、通知はブラウザの文脈の外(例:一般的な通知トレイ)に表示されたり、デバイスが振動したりアラート音を鳴らしたりすることがあります。 強力な機能であるがゆえに、通知は悪用されやすく、迷惑になったり、行動を操作するために使われたりして、自律性を低下させることがあります。

Principle 2.13.1: ユーザーエージェントは、行動を操作するために悪用され得る通知や他の中断的 UI をユーザーが制御するのを手助けするべきです。

ユーザーエージェントは、どのウェブサイトがアラート表示の許可を与えられているかを監査し、それらの許可を取り消す UI を提供するべきです。ユーザーエージェントはまた、通知受信の許可に対する初期要求に品質の基準を適用するべきです(例えば、初回訪問時にサイトが許可を要求することを許可しないなど)。

ユーザーエージェント
Principle 2.13.2: ウェブのサイトは、ユーザーが明確に要求した情報にのみ通知を使用するべきです。

ウェブのサイトは、通知の許可を要求する際に、利用者がどのような特定の種類の情報を受け取ることを期待できるか、そして通知をどのようにオフにできるかをユーザーに伝えるべきです。サイトは、ユーザーがそのような情報(どの種類の通知にサインアップするのかについての情報)を得る可能性が低い場合に通知の許可を要求すべきではありません。そのような情報が提供される可能性が低い場合、ユーザーエージェントは緩和策を適用すべきです(例:通知 API の潜在的な悪用について警告する)。許可は文脈の中で要求されるべきです。

ウェブサイト

2.14 報復禁止

Principle 2.14: アクターは、非必須の処理に対して自分のデータを保護したり、自分のデータに関する権利を行使したりする人々に対して報復してはなりません。
ウェブサイトユーザーエージェント

人々は共有する私的情報の量を制限したり、アクターに既に共有したデータの使用を制限するよう要求したり、データの削除を求めたりする自由があるべきです。個人が自らのデータの使用を拒否または撤回することを選択したとき、報復は不適切です。

データがサービスの運営に不可欠である場合にサービスを終了することは報復ではありません。しかし、データの提供を拒否した結果がそのデータの使用に関連しない行動につながる場合、それは報復である可能性があります。報復の例には次が含まれます:

2.15 どの情報を提示するかを選ぶ支援

Principle 2.15.1: ユーザーエージェントは、リクエストするアクターに対して提供する情報をどのように選ぶかで人々を支援すべきであり、利用者が任意の情報を提供できるようにすることも含みます。
ユーザーエージェント

アクターは、人々からデータを自動的に収集する方法を自動化するために時間と労力を投資し、製品を設計して情報の開示を容易にする一方で、人々は通常手動で複数のオプションや繰り返しのプロンプト、欺瞞的パターンを掻い潜らなければなりません。多くの場合、データが存在しないこと(ある人が情報を提供するのを拒否する場合)もまた識別的または露出的になり得ます。さらに、API が厳格に定義または実装されることで人々が有用な機能にアクセスできなくなることがあります。例えば、週末に訪れる都市のレストランを探したいのに、位置情報が強制的に GPS と一致するよう設定されていると、レストラン検索サイトは現在の場所でしか検索を許さないかもしれません。他の場合では、サイトはデータ最小化の原則に従わず、要求する情報が必要以上に多い場合があります。この原則は人々が自分のデータを最小化するのを支援します。

ユーザーエージェントは、利用者が提示したいアイデンティティを提示することや、自分自身またはデバイスに関する情報を利用者が制御する方法で提供することを簡便にするべきです。これは人々が目立たないまま生活するのを助け(Lost-In-Crowd、Obscurity-By-Design を参照)、自分自身に関する情報を難読化することを含みます(Obfuscation を参照)。

Principle 2.15.2: API は、API を通じて返されるデータが利用者やその環境についての事実を断定したり、利用者に代わって約束を行ったりしないように設計されるべきです。
APIデザイナー

代わりに、API はその人の選好、その人が選んだアイデンティティ、その人のクエリや関心、または選択された通信スタイルを示すことができます。

例えば、ユーザーエージェントは次のようにしてこの原則を支援できます:

  • ドメイン固有のメールアドレスや他の指向識別子を生成して、人々がコンテキスト間で認識されないようにサイトにログインできるようにする。
  • ユーザーが指定したパラメータで位置情報や加速度計データを生成するオプションを提供する。
  • カメラプロンプトに応じて保存されたビデオストリームをアップロードする。
  • ユーザー設定に基づいて許可プロンプトを自動的に許可または拒否する。

サイトは脅威モデルに欺瞞を含め、ウェブプラットフォーム API がユーザーについての一貫性、最新性、または正確性の保証を提供するとは仮定しないでください。人々は自分がウェブサイトとやり取りするために使用するデバイスやソフトウェアを制御する場合が多く、サイトの要求に応じて人々はテスト、監査、収集形態の緩和(ブラウザフィンガープリンティングのような)を含む様々な理由で提供する情報を任意に修正または選択することがあります。

API が本当に現在の真の値を返すよう定義されなければならない稀な場合でも、ユーザーはテスト、監査、あるいはデータ収集の緩和の理由で自分のエージェントを他の情報で応答するよう設定することができます(ブラウザフィンガープリンティング対策等)。

A. 共通の概念

A.1 人々

A (または ユーザー、あるいは データ主体)は、任意の自然人を指します。本書全体では、人間性を思い起こさせるために主に人々という用語を用います。ユーザーという用語を使う場合は、ある特定のシステムをその時点で使っている特定のについて述べていることを意味します。

A 脆弱な人は、特定の文脈において、通常よりも容易に自分の選択を奪われ得るを指します。彼らはより大きなデフォルトのプライバシー保護を受けるべきであり、システムとの様々な相互作用に対して同意できないと見なされる場合があります。人々は様々な理由で脆弱になり得、特定の文脈で脆弱となることがあります。例えば、子どもは多くの文脈で脆弱であるかもしれませんし、雇用者やその他のアクターとの間に権力の不均衡がある人は、そのアクターが存在する文脈で脆弱になる可能性があります。参照:1.2 脆弱性

A.2 文脈

A 文脈は、人々が他のアクターと相互作用する物理的またはデジタルな環境であり、かつその人々が他の文脈と区別して理解するものです。

文脈は、誰がそれを所有または制御しているかによって定義されるものではありません。単一の企業の異なる文脈間でデータを共有することは、無関係なアクター間で同じデータが共有される場合と同様にプライバシー侵害となり得ます。

A.3 サーバー側のアクター

アクターとは、個人が合理的にひとつの「もの」としてやり取りしていると理解できる存在です。アクターは、個人だけでなく、企業や団体、行政機関などの集合体も含みます。

ユーザーエージェントは、個人に対し、見ているウェブページがどのオリジンサイトによるものかを説明する傾向があります。このアクターが、そのウェブページの内容やデータの取扱いに関する意思決定を行う、または委任する場合、そのオリジンやサイトの「ファーストパーティ」と呼ばれます。個人がウェブページの一部とやりとりする場合、そのやりとりのファーストパーティは通常、そのページのファーストパーティです。ただし、ページのその部分の動作方針を異なるアクターが決めていて、現実的な範囲で他のアクターがコントロールしていると合理的な個人が気づける場合は、そのやりとりのファーストパーティはそのアクターとなります。

誰かがウェブページとのやり取りについてデータを取得した場合、そのやり取りのファーストパーティは、そのデータがどのように処理されるかについて責任を負うことになります。他のアクターが実際の処理を行っていたとしても、それは変わりません。

サードパーティとは、ウェブサイトを訪れている個人や、その個人がやりとりを期待しているファーストパーティ以外のすべてのアクターです。

A.4 データに基づく行為

我々は個人データを、識別された、または識別可能なに直接的または間接的に関連する任意の情報として定義します(例えば識別子による参照など)([GDPR]、 [OECD-Guidelines]、 [Convention-108])。

ウェブ上では、ある種の識別子が、サイトから見た アイデンティティに対して割り当てられることが一般的であり、これによって自動化された システムがその個人についてデータを保存しやすくなります。

もしあるが、あるデータの組み合わせによって合理的に識別または再識別され得るなら、両方のデータセットは個人データと見なされます。

人々は、ある文脈において、当該文脈の原則に従って情報を提示し、個人データを使用する場合にプライバシーを有します。その文脈の原則が守られないとき、プライバシー侵害が生じます。原則が遵守されるとき、ある相互作用は適切であると言い、そうでない場合は不適切であると言います。

あるアクター処理を行うとは、自動化手段かどうかに関わらず、収集、記録、整理、構造化、保存、適応または変更、検索、照会、使用、送信による開示、共有、配布またはその他の利用可能化、販売、整合や結合、制限、消去または破棄など、個人データに対して操作を実施することを指します。

あるアクターが、他のデータ管理者にデータを提供した場合、そのアクターはデータを共有したことになります。この定義においては、あるアクターが自らのサービス提供者にデータを提供する場合は、共有には当たりません。

あるアクターがデータを販売するとは、価値のあるものと引き換えにデータを共有する場合を指し、その価値が金銭的である必要はありません。

あるデータの目的とは、その取扱いによって、予期・意図・計画される成果であり、特定の文脈の中で達成されたり、目指されたりするものを指します。目的が説明される際には、その文脈に精通した人物が、その目的を達成するための手段を選べる程度に、具体的でなければなりません。

手段(means)は、特定の目的を達成するためにデータがどのように処理されるかの一般的な方法を指します。手段は比較的抽象的で、実装の細部まで全てを指定するわけではありません。例えば、ある人の好みを回復するという目的に対して、手段は識別子を優先設定から検索することかもしれません。

データ管理者(data controller)は、データ処理の手段目的を決定するアクターです。サービス提供者でない任意のアクターは、データ管理者です。

サービス提供者 または データ処理者 は次の通りです:

A.5 認識(Recognition)

認識は、あるアイデンティティが、別のアイデンティティと同じに対応していることを認識する行為です。その別のアイデンティティは別の文脈で観察されたものか、同じ文脈内でも別の時点で観察されたものかもしれません。認識は確率的であり得ます。つまり、二つのアイデンティティが同じに対応する確率が高いと気付く場合です。

は、その法的なアイデンティティや法的アイデンティティの特性が認識に含まれているかどうかにかかわらず、認識され得ます。

A.5.1 認識の種類

発生し得るいくつかの種類の認識があります。

クロスコンテキスト認識は、異なる文脈間での認識です。

クロスコンテキスト認識は、認識される当該のが認識が起きることを合理的に期待でき、かつそれを制御できる場合にのみ適切です。

ある人が二つの異なる文脈で識別情報(例えばメールや電話番号)を使用する場合、それが自動的に両方の文脈で同じアイデンティティを使うことを意図していることを意味するわけではありません。彼らが単一のアイデンティティを使うつもりであるという別の兆候がない限り、その情報を使って彼らを認識することは不適切です。また、クロスコンテキスト認識を助けるために追加の識別情報を求めることも不適切です。

文脈を跨いで人々を認識するシステムは、ある文脈での原則を、別の文脈で得た情報の使用に関してそれを侵害するように適用しないように注意する必要があります。これは特に脆弱な人々に対して重要です。なぜなら、異なる文脈で彼らを認識することが、彼らの脆弱性を明らかにしてしまう特性を表に出してしまう可能性があるからです。例えば、セラピストにパーティで会った場合、そのセラピストは通常とは異なる話題であなたと話すことを期待し、場合によってはあなたを知らないふりをすることすら期待されるかもしれません。

クロスサイト認識は、異なるサイト上でアイデンティティが観察されるときの認識です。通常、サイトが異なる文脈である場合、クロスサイト認識は、クロスコンテキスト認識と同様の場合において不適切です。

同一サイト内認識は、単一のサイトが、二回以上の訪問を通じて人を認識する場合を指します。

もしある人が単一サイトへの異なる訪問で異なるアイデンティティを使うことを合理的に期待しているのに、そのサイトがそれでも彼らを認識してしまうと、プライバシー上の害が生じます。

これらのカテゴリは重なり合うことに注意してください:クロスサイト認識は通常クロスコンテキスト認識です(常にパーティション間での認識を含みます);そして同一サイト内認識は時にクロスコンテキスト認識に該当することがあり(かつ複数のパーティションを含むかもしれません)。

A.5.2 ユーザーエージェントの認識に関する自覚

パーティションは、ユーザーエージェントが、そのユーザーが文脈をどのように理解するかを一致させようと試みるものです。ユーザーエージェントは、ユーザーが訪れるサイトをどのように経験するかを完全には理解していないため、パーティションを構築する際に文脈の境界を近似する必要がしばしばあります。

より良い情報がない場合、パーティションは次のように定義できます:

  • 一連の環境(大まかに言えば:同一サイトおよびクロスサイトのiframe、ワーカー、およびトップレベルページ)
  • そのトップレベルオリジンが同一のサイトにあるもの(注意:PSL-Problemsを参照)
  • 同じユーザーエージェントのインストール(およびそのブラウザプロファイル、コンテナ、またはコンテナタブ)内で訪問されるもの
  • そのサイトのクッキーやその他のストレージがユーザーまたはユーザーエージェントによってクリアされるまでの間の時点間(セッション終了時に自動的に行われることがある)

単一のサイトが複数の異なる文脈を含む場合をユーザーエージェントが検出するのは難しいことがあります。ユーザーエージェントがこれを検出できる場合、例えばサブドメインやサイトパスごとにアイデンティティをパーティション化するなど、そのパーティションを適切に調整すべきです。ユーザーエージェントはサイト内の文脈を区別する能力を改善するよう努めるべきです。

ユーザーエージェントは、利用者が意図しない限り、パーティション間で人が認識されるのを防ぐべきです。

サイトは、同じ人物からの訪問であると完全には確信できなくても害を及ぼす可能性があるため、ユーザーエージェントはそのような確率的な認識を防ぐための措置も講じるべきです。Target Privacy Threat Modelはここでのトレードオフを論じています([Privacy-Threat])。

もしユーザーエージェントが、そのユーザーが特定のサイト上で特定のアイデンティティを使用していると判断できるなら、当該のアクティブなアイデンティティをユーザーに明示すべきです(例えば、ユーザーが Credential Management Level 1 のような API を通じてサイトにログインしている場合など)。

B. 適合性

この文書は、主に情報提供を目的としており、適合クラスを厳密に制約するものではないため、[RFC2119] における厳格な用語の使用には従っていません。 ただし、本原則の策定にあたっては、「should(すべき)」は正当な理由があるごく稀な場合には原則を覆すことができることを示し、「must(しなければならない)」はその原則から逸脱することが正当化できる状況がないことを示すために用いるよう配慮しています。

C. 謝辞

本書に記載されているいくつかの定義は Tracking Preference Expression (DNT) の成果をもとにしています。

この文書の作成にあたり、以下の方々(ファーストネームのアルファベット順)が中心的な役割を果たし、貴重な貢献をされました: Amy Guy、 Ben Savage、 Chris Needham、 Christine Runnegar、 Dan Appelquist、 Don Marti、 François Daoust、 Ian Jacobs、 Irene Knapp、 Jonathan Kingston、 Kyle Den Hartog、 Mark Nottingham、 Martin Thomson、 Nick Doty、 Peter Snyder、 Sam Weiler、 Shubhie Panicker、 Tess O'Connor、 Wendy Seltzer。

D. 課題のまとめ

本仕様には記載すべき課題はありません。

E. 参考文献

E.1 参考情報

[Adding-Permissions]
別の権限を追加しますか? ガイド. Nick Doty. 2018. URL: https://github.com/w3cping/adding-permissions
[Addressing-Cyber-Harassment]
サイバー嫌がらせへの対処:サイバースペースにおける憎悪犯罪の概観. Danielle Keats Citron. Case Western Reserve Journal of Law, Technology & the Internet. 2015. URL: https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=1634&context=faculty_scholarship
[Beyond-Individual]
個人レベルを超えたプライバシー(Modern Socio-Technical Perspectives on Privacy 内). J.J. Suh; M.J. Metzger. Springer. URL: https://doi.org/10.1007/978-3-030-82786-1_6
出版社がグーグルに告げる:私たちはあなたの同意の下僕ではない. Rebecca Hill. The Register. URL: https://www.theregister.com/2018/05/01/publishers_slam_google_ad_policy_gdpr_consent/
[Content-Aggregation-Technology]
コンテンツ集約技術(CAT). Robin Berjon; Justin Heideman. URL: https://nytimes.github.io/std-cat/
[Contextual-Integrity]
文脈的完全性としてのプライバシー. Helen Nissenbaum. Washington Law Review. URL: https://digitalcommons.law.uw.edu/wlr/vol79/iss1/10/
[Convention-108]
個人の自動処理に関するデータ保護のための条約(Convention 108). Council of Europe. URL: https://rm.coe.int/1680078b37
[Credential-Management-1]
Credential Management Level 1. Nina Satragno; Marcos Caceres. W3C. 2024年8月13日. W3C Working Draft. URL: https://www.w3.org/TR/credential-management-1/
[CSSOM-View-1]
CSSOM View モジュール. Simon Pieters. W3C. 2016年3月17日. W3C Working Draft. URL: https://www.w3.org/TR/cssom-view-1/
[Dark-Pattern-Dark]
ダークパターンをダークにするものは何か?設計属性、規範的考察、および測定方法. Arunesh Mathur; Jonathan Mayer; Mihir Kshirsagar. URL: https://arxiv.org/abs/2101.04843v1
[Dark-Patterns]
ダークパターン:過去、現在、未来. Arvind Narayanan; Arunesh Mathur; Marshini Chetty; Mihir Kshirsagar. ACM. URL: https://dl.acm.org/doi/10.1145/3397884
[Data-Minimization]
Web APIにおけるデータ最小化. Daniel Appelquist. W3C TAG. Draft Finding. URL: https://www.w3.org/2001/tag/doc/APIMinimization-20100605.html
[De-identification-Privacy-Act]
匿名化(De-identification)とプライバシー法. Office of the Australian Information Commissioner. Australian Government. URL: https://www.oaic.gov.au/privacy/guidance-and-advice/de-identification-and-the-privacy-act
[Deprecation-Reporting]
廃止(Deprecation)レポート. W3C. Draft Community Group Report. URL: https://wicg.github.io/deprecation-reporting/
[Design-Principles]
Webプラットフォーム設計原則. Martin Thomson; Jeffrey Yasskin. W3C. 2025年4月30日. W3C Working Group Note. URL: https://www.w3.org/TR/design-principles/
[Digital-Market-Manipulation]
デジタル市場操作. Ryan Calo. George Washington Law Review. URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2309703
[DOM]
DOM標準. Anne van Kesteren. WHATWG. Living Standard. URL: https://dom.spec.whatwg.org/
[Element-Timing]
Element Timing API. W3C. Editor's Draft. URL: https://w3c.github.io/element-timing/
[Ethical-Web-Principles]
倫理的なウェブ原則. Daniel Appelquist; Hadley Beeman; Amy Guy. W3C. 2024年12月12日. STMT. URL: https://www.w3.org/TR/ethical-web-principles/
[Event-Timing]
Event Timing API. Michal Mocny. W3C. 2025年4月16日. W3C Working Draft. URL: https://www.w3.org/TR/event-timing/
[Fiduciary-Law]
受託者法(Fiduciary Law). Tamar Frankel. California Law Review. 1983年5月. URL: http://www.bu.edu/lawlibrary/facultypublications/PDFs/Frankel/Fiduciary%20Law.pdf
[Fiduciary-Model]
プライバシーの受託者モデル. Jack M. Balkin. Harvard Law Review Forum. 2020年9月26日. URL: https://ssrn.com/abstract=3700087
[Fiduciary-UA]
ユーザーエージェントの受託責任. Robin Berjon. URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3827421
[fingerprinting-guidance]
Web仕様におけるブラウザフィンガープリンティングの緩和. Nick Doty; Tom Ritter. W3C. 2025年3月21日. W3C Working Group Note. URL: https://www.w3.org/TR/fingerprinting-guidance/
[For-Everyone]
これは皆のためのものだ. Tim Berners-Lee. ロンドン2012オリンピック開会式での発言. URL: https://twitter.com/timberners_lee/status/228960085672599552
[GDPR]
一般データ保護規則(GDPR) / 規則 (EU) 2016/679. European Parliament and Council of European Union. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:32016R0679&from=EN
[GKC-Privacy]
ナレッジコモンズにおけるプライバシーの統治. Madelyn Rose Sanfilippo; Brett M. Frischmann; Katherine J. Strandburg. Cambridge University Press. URL: https://www.cambridge.org/core/books/governing-privacy-in-knowledge-commons/FA569455669E2CECA25DF0244C62C1A1
[GPC-Spec]
Global Privacy Control(GPC). Sebastian Zimmeck; Peter Snyder; Justin Brookman; Aram Zucker-Scharff. W3C. 2025年4月16日. W3C Working Draft. URL: https://www.w3.org/TR/gpc/
[html]
HTML標準. Anne van Kesteren; Domenic Denicola; Dominic Farolino; Ian Hickson; Philip Jägenstedt; Simon Pieters. WHATWG. Living Standard. URL: https://html.spec.whatwg.org/multipage/
[IAD]
制度的多様性の理解. Elinor Ostrom. Princeton University Press. URL: https://press.princeton.edu/books/paperback/9780691122380/understanding-institutional-diversity
[Individual-Group-Privacy]
ビッグデータ分析における個人からグループへのプライバシー. Brent Mittelstadt. Philosophy & Technology. URL: https://link.springer.com/article/10.1007/s13347-017-0253-7
[infra]
Infra標準. Anne van Kesteren; Domenic Denicola. WHATWG. Living Standard. URL: https://infra.spec.whatwg.org/
[Internet-of-Garbage]
ゴミのインターネット(Internet of Garbage). Sarah Jeong. The Verge. 2018. URL: https://www.theverge.com/2018/8/28/17777330/internet-of-garbage-book-sarah-jeong-online-harassment
[Intersection-Observer]
Intersection Observer. Stefan Zager; Emilio Cobos Álvarez; Traian Captan. W3C. 2023年10月18日. W3C Working Draft. URL: https://www.w3.org/TR/intersection-observer/
[Lost-In-Crowd]
もはや群衆に紛れることはできない理由. Woodrow Hartzog; Evan Selinger. The New York Times. URL: https://www.nytimes.com/2019/04/17/opinion/data-privacy.html
[New-Chicago-School]
ニュー・シカゴ学派. Lawrence Lessig. The Journal of Legal Studies. 1998年6月. URL: https://www.docdroid.net/i3pUJof/lawrence-lessig-the-new-chicago-school-1998.pdf
[NIST-800-63A]
デジタルIDガイドライン:登録と本人確認要件. Paul A. Grassi; James L. Fenton; Naomi B. Lefkovitz; Jamie M. Danker; Yee-Yin Choong; Kristen K. Greene; Mary F. Theofanos. NIST. 2020年3月. URL: https://pages.nist.gov/800-63-3/sp800-63a.html
[Obfuscation]
難読化:プライバシーと抗議のためのユーザーズガイド. Finn Brunton; Helen Nissenbaum. Penguin Random House. URL: https://www.penguinrandomhouse.com/books/657301/obfuscation-by-finn-brunton-and-helen-nissenbaum/
[Obscurity-By-Design]
設計による不可視化(Obscurity by Design). Woodrow Hartzog; Frederic Stutzman. URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2284583
[OECD-Guidelines]
プライバシー保護と越境データ移転に関するOECD指針. OECD Publishing. 2002年. URL: https://doi.org/10.1787/9789264196391-en
[PEN-Harassment]
オンライン嫌がらせフィールドマニュアル. PEN America. URL: https://onlineharassmentfieldmanual.pen.org/defining-online-harassment-a-glossary-of-terms/
[Performance-Measure-Memory]
Measure Memory API. W3C. Draft Community Group Report. URL: https://wicg.github.io/performance-measure-memory/
[PEW-Harassment]
オンライン嫌がらせの現状. Pew Research Center. 2021年1月. URL: https://www.pewresearch.org/internet/2021/01/13/the-state-of-online-harassment/
[Portability-Threat-Model]
ユーザーデータポータビリティ脅威モデル. Lisa Dusseault. Data Transfer Initiative. URL: https://dtinit.org/assets/ThreatModel.pdf
[Privacy-Behavior]
情報時代におけるプライバシーと人間の行動. Alessandro Acquisti; Laura Brandimarte; George Loewenstein. Science. URL: https://www.heinz.cmu.edu/~acquisti/papers/AcquistiBrandimarteLoewenstein-S-2015.pdf
[Privacy-Concerned]
アメリカ人とプライバシー:懸念、混乱、そして個人情報に対するコントロール感の欠如. Brooke Auxier; Lee Rainie; Monica Anderson; Andrew Perrin; Madhu Kumar; Erica Turner. Pew Research Center. URL: https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack-of-control-over-their-personal-information/
[Privacy-Contested]
プライバシーは本質的に争われる概念である:プライバシーをマッピングするための多次元分析. Deirdre K. Mulligan; Colin Koopman; Nick Doty. Philosophical Transactions A. URL: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5124066/
[Privacy-Threat]
ターゲットプライバシー脅威モデル. Jeffrey Yasskin; Tom Lowenthal. W3C PING. URL: https://w3cping.github.io/privacy-threat-model/
[PSL-Problems]
Public Suffix List の問題点. Ryan Sleevi. URL: https://github.com/sleevi/psl-problems
[Records-Computers-Rights]
記録、コンピュータ、および市民の権利. U.S. Department of Health, Education & Welfare. URL: https://archive.epic.org/privacy/hew1973report/
[Relational-Governance]
データガバナンスの関係論(A Relational Theory of Data Governance). Salomé Viljoen. Yale Law Journal. URL: https://www.yalelawjournal.org/feature/a-relational-theory-of-data-governance
[Relational-Turn]
データ保護における関係的転換?. Neil Richards; Woodrow Hartzog. URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3745973&s=09
[RFC2119]
RFCで要件レベルを示すためのキーワード. S. Bradner. IETF. 1997年3月. Best Current Practice. URL: https://www.rfc-editor.org/rfc/rfc2119
[RFC6772]
ジオロケーションポリシー:位置情報のプライバシー設定を表す文書形式. H. Schulzrinne, Ed.; H. Tschofenig, Ed.; J. Cuellar; J. Polk; J. Morris; M. Thomson. IETF. 2013年1月. Proposed Standard. URL: https://www.rfc-editor.org/rfc/rfc6772
[RFC6973]
インターネットプロトコルのためのプライバシー考慮事項. A. Cooper; H. Tschofenig; B. Aboba; J. Peterson; J. Morris; M. Hansen; R. Smith. IETF. 2013年7月. Informational. URL: https://www.rfc-editor.org/rfc/rfc6973
[RFC7258]
広範な監視は攻撃である. S. Farrell; H. Tschofenig. IETF. 2014年5月. Best Current Practice. URL: https://www.rfc-editor.org/rfc/rfc7258
[RFC7687]
インターネット強化(STRINT)ワークショップからの報告. S. Farrell; R. Wenning; B. Bos; M. Blanchet; H. Tschofenig. IETF. 2015年12月. Informational. URL: https://www.rfc-editor.org/rfc/rfc7687
[RFC9110]
HTTP セマンティクス. R. Fielding, Ed.; M. Nottingham, Ed.; J. Reschke, Ed. IETF. 2022年6月. Internet Standard. URL: https://httpwg.org/specs/rfc9110.html
[Seeing-Like-A-State]
国家のように見る:人間の状況を改善しようとするある種の計画が失敗した方法. James C. Scott. URL: https://bookshop.org/books/seeing-like-a-state-how-certain-schemes-to-improve-the-human-condition-have-failed/9780300246759
[Standard-Bodies-Regulators]
技術標準団体は規制当局である. Mark Nottingham. URL: https://www.mnot.net/blog/2023/11/01/regulators
[Strava-Debacle]
最近のデータプライバシーの大失態. Zeynep Tufekci. The New York Times. URL: https://www.nytimes.com/2018/01/30/opinion/strava-privacy.html
[Strava-Reveal-Military]
Stravaフィットネスアプリが軍事基地を明らかにする可能性、アナリストが指摘. Richard Pérez-Peña; Matthew Rosenberg. The New York Times. URL: https://www.nytimes.com/2018/01/29/world/middleeast/strava-heat-map.html
[Taking-Trust-Seriously]
プライバシー法において信頼を真剣に受け止める. Neil Richards; Woodrow Hartzog. URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2655719
[Tracking-DNT]
追跡プリファレンス表現(DNT). Roy Fielding; David Singer. W3C. 2019年1月17日. W3C Working Group Note. URL: https://www.w3.org/TR/tracking-dnt/
[Understanding-Privacy]
プライバシーの理解. Daniel Solove. Harvard University Press. URL: https://www.hup.harvard.edu/catalog.php?isbn=9780674035072
[Unsanctioned-Tracking]
無許可のウェブ追跡. Mark Nottingham. W3C. 2015年7月17日. TAG Finding. URL: http://www.w3.org/2001/tag/doc/unsanctioned-tracking/
[Web-Without-3p-Cookies]
サードパーティクッキーなしでのウェブ改善. Amy Guy. W3C. URL: https://www.w3.org/2001/tag/doc/web-without-3p-cookies/
[Why-Privacy]
なぜプライバシーが重要か. Neil Richards. Oxford University Press. URL: https://global.oup.com/academic/product/why-privacy-matters-9780190939045?cc=us&lang=en&