WebGPU

W3C 候補勧告草案,

この文書の詳細情報
このバージョン:
https://www.w3.org/TR/2025/CRD-webgpu-20251022/
最新公開バージョン:
https://www.w3.org/TR/webgpu/
編集者ドラフト:
https://gpuweb.github.io/gpuweb/
以前のバージョン:
履歴:
https://www.w3.org/standards/history/webgpu/
フィードバック:
public-gpu@w3.org 件名 “[webgpu] … メッセージのトピック …” (アーカイブ)
GitHub
編集者:
(Google)
(Google)
(Mozilla)
元編集者:
(Apple Inc.)
(Mozilla)
(Apple Inc.)
参加方法:
課題を提出 (公開中の課題)
テストスイート:
WebGPU CTS

概要

WebGPUは、グラフィックス処理ユニット上でレンダリングや計算などの操作を行うためのAPIを公開します。

この文書のステータス

このセクションは、公開時点でのこの文書のステータスについて説明します。現行のW3C公開文書および本技術レポートの最新改訂は、W3C標準・草案一覧でご確認いただけます。

この仕様へのフィードバックやコメントは歓迎します。 この仕様に関する議論にはGitHub Issuesが推奨されます。あるいは、GPU for the Web ワーキンググループのメーリングリストpublic-gpu@w3.orgアーカイブ)へコメントを送信することもできます。 この草案では、作業グループで今後議論予定の未解決課題が一部ハイライトされています。 これらの課題の妥当性も含め、結果についてはまだ決定されていません。

この文書はGPU for the Web ワーキンググループにより、勧告トラックを用いて候補勧告草案として公開されました。この文書は少なくともまでは候補勧告のままとなります。

グループは、すべての機能について、最新のGPUシステムAPI上で2つ以上のブラウザによる実装例を示す予定です。テストスイートは実装レポートの作成に用いられます。

候補勧告として公開されたことは、W3Cおよびそのメンバーによる支持を意味するものではありません。候補勧告草案には、作業グループが次回の候補勧告スナップショットに含める予定の、前回候補勧告からの変更点が統合されています。

本文書は随時維持・更新されます。一部内容は作業途中です。

この文書はW3C特許ポリシーの下で活動するグループによって作成されました。W3Cは、グループの成果物に関する公開特許情報リストを管理しています。このページには特許の開示方法も記載されています。ある人物が、必須クレームを含むと信じる特許を実際に知っている場合、その情報をW3C特許ポリシー第6節に従い開示する必要があります。

この文書は2025年8月18日W3Cプロセス文書に準拠します。

1. はじめに

このセクションは規定ではありません。

グラフィックス処理ユニット(GPU)は、パーソナルコンピュータにおいて豊かなレンダリングや計算アプリケーションを可能にする重要な役割を担っています。 WebGPUは、Web上でGPUハードウェアの機能を公開するAPIです。 このAPIは、(2014年以降の)ネイティブGPU APIに効率良くマッピングできるよう、ゼロから設計されています。 WebGPUはWebGLとは関係なく、OpenGL ESを明示的にターゲットとしていません。

WebGPUは物理的なGPUハードウェアをGPUAdapterとして扱います。 アダプターへの接続は GPUDeviceを介し、リソースの管理やデバイスのGPUQueueによるコマンド実行を行います。 GPUDeviceは、処理ユニットへ高速アクセス可能な独自メモリを持つ場合があります。 GPUBufferGPUTextureは、GPUメモリに裏付けられた物理リソースです。 GPUCommandBufferGPURenderBundleは、ユーザーが記録したコマンドのコンテナです。 GPUShaderModuleシェーダーコードを格納します。他のリソース、例えばGPUSamplerGPUBindGroupは、GPUが 物理リソースを利用する方法を構成します。

GPUはGPUCommandBufferでエンコードされたコマンドを実行し、データをパイプライン(固定機能とプログラム可能ステージの混在)へ流します。プログラム可能ステージは シェーダー(GPU上で動作する専用プログラム)を実行します。 パイプラインのほとんどの状態は GPURenderPipelineGPUComputePipelineオブジェクトで定義されます。それ以外の状態は、コマンド beginRenderPass()setBlendConstant()などでエンコード時に設定されます。

2. 悪意ある利用への考慮事項

このセクションは規定ではありません。 このAPIをWebで公開することによるリスクについて説明します。

2.1. セキュリティの考慮事項

WebGPUのセキュリティ要件はWebの従来通りであり、変更できません。 一般的なアプローチは、すべてのコマンドをGPUに到達する前に厳格に検証し、ページが自身のデータだけ操作できるようにすることです。

2.1.1. CPUベースの未定義動作

WebGPU実装は、ユーザーによるワークロードをターゲットプラットフォーム固有のAPIコマンドに変換します。ネイティブAPIはコマンドの正しい使用方法を規定しており(例:vkCreateDescriptorSetLayout)、有効な利用規則を守らない場合の結果は保証されません。 これは「未定義動作」と呼ばれ、攻撃者が自身の所有しないメモリにアクセスしたり、ドライバに任意のコードを実行させたりすることに悪用される可能性があります。

安全でない利用を禁止するため、WebGPUの許容動作範囲は全ての入力に対して定義されています。 実装はユーザーからの全ての入力を検証し、有効なワークロードのみドライバへ到達させる必要があります。本書では全てのエラー条件とその取り扱いについて規定しています。 例えば、copyBufferToBuffer()の「source」と「destination」の両方で、交差する範囲の同一バッファを指定すると、 GPUCommandEncoderはエラーを生成し、他の操作は行われません。

エラー処理の詳細は§ 22 エラーとデバッグを参照してください。

2.1.2. GPUベースの未定義動作

WebGPUのシェーダーはGPUハードウェア内部の計算ユニットで実行されます。ネイティブAPIでは、一部のシェーダー命令がGPU上で未定義動作となる場合があります。 これに対応するため、WebGPUではシェーダー命令セットとその動作を厳密に定義しています。シェーダーがcreateShaderModule()に渡される際、 WebGPU実装はプラットフォーム固有シェーダーへの変換や最適化を行う前に、必ず検証を行います。

2.1.3. 未初期化データ

一般に、新しいメモリの割り当ては、システム上で他のアプリケーションが残したデータが露出する可能性があります。 これに対処するため、WebGPUは概念的にすべてのリソースをゼロ初期化しますが、実際には開発者が手動で内容を初期化する場合はこの手順を省略することもあります。 シェーダー内の変数や共有ワークグループメモリもこれに含まれます。

ワークグループメモリのクリア方法はプラットフォームにより異なります。 ネイティブAPIがクリア機能を提供しない場合、WebGPU実装は計算シェーダー内で全呼び出しを使ってクリアを行い、同期後に開発者のコード実行を続行します。

注意:
キュー操作で利用されるリソースの初期化状態は、コマンドバッファへのエンコード時ではなく、操作がキューに登録された時点でのみ把握できます。そのため、 一部実装では、最適化されていない遅延クリア(例: テクスチャのクリア、もしくはGPULoadOp "load""clear"へ変更)が必要になる場合があります。

そのため、すべての実装は、このパフォーマンス低下の可能性について開発者コンソールで警告を推奨すべきですが、実際に低下がなくても警告を表示すべきです。

2.1.4. シェーダー内の範囲外アクセス

シェーダー物理リソースへ直接(例:"uniform" GPUBufferBinding)、またはテクスチャユニット(座標変換を扱う固定機能ハードウェアブロック)経由でアクセスできます。 WebGPU APIの検証では、シェーダーへの全入力が提供され、使用法・型が正しいことのみ保証できます。 テクスチャユニットが関与しない場合、データへのアクセスが範囲内であることはAPIレベルでは保証できません。

シェーダーがアプリケーション所有外のGPUメモリへアクセスするのを防ぐため、WebGPU実装はドライバの「堅牢なバッファアクセス」モードを有効化し、アクセスをバッファ範囲内に制限する場合があります。

または、手動で範囲外チェックを挿入するようにシェーダーコードを変換することもできます。この場合、範囲外チェックは配列インデックスへのアクセスにのみ適用されます。構造体の単純なフィールドアクセスについては、ホスト側のminBindingSize検証により不要です。

シェーダーが物理リソース範囲外のデータを読み込もうとした場合、実装は以下のいずれかを許容します:

  1. リソース範囲内の他の場所の値を返す

  2. 値ベクトル "(0, 0, 0, X)"(Xは任意)を返す

  3. 描画またはディスパッチ呼び出しを部分的に破棄する

シェーダーが物理リソース範囲外へデータを書き込もうとした場合、実装は以下のいずれかを許容します:

  1. リソース範囲内の他の場所へ値を書き込む

  2. 書き込み操作を破棄する

  3. 描画またはディスパッチ呼び出しを部分的に破棄する

2.1.5. 無効なデータ

CPUからGPUへ浮動小数点データをアップロードする場合や、GPU上で生成する場合、無限大やNaN(非数)など、正しい数値に対応しない2進表現になる場合があります。このときのGPUの動作は、IEEE-754標準に準拠したGPUハードウェア実装の精度に依存します。 WebGPUは、無効な浮動小数点数値の導入が算術計算結果のみに影響し、それ以外の副作用は生じないことを保証します。

2.1.6. ドライバのバグ

GPUドライバも他のソフトウェア同様、バグの影響を受けます。バグが発生した場合、攻撃者がドライバの誤動作を利用して特権外のデータへアクセスする可能性があります。 このリスク低減のため、WebGPUワーキンググループは、WebGL同様にWebGPU適合テストスイート(CTS)をGPUベンダーのドライバテスト工程に統合するよう協力します。 WebGPU実装では、既知のバグへの対応策を講じ、回避困難なバグがあるドライバではWebGPUの利用を無効化することが期待されます。

2.1.7. タイミング攻撃

2.1.7.1. コンテンツ・タイムラインのタイミング

WebGPUはJavaScriptに新しい状態(コンテンツタイムライン)を公開しません。これは、エージェントエージェントクラスタ内で共有するものです。 コンテンツタイムラインの状態(例:[[mapping]])は、 明示的なコンテンツタイムラインタスク(通常のJavaScript同様)時のみ変更されます。

2.1.7.2. デバイス/キュー・タイムラインのタイミング

書き込み可能なストレージバッファや他の呼び出し間通信は、キュータイムライン上で高精度タイマー構築に利用される場合があります。

オプション機能"timestamp-query"もGPU操作の高精度タイミングを提供します。セキュリティ・プライバシー対策として、タイミングクエリ値は低精度に揃えられます:詳細はcurrent queue timestampを参照。特に以下の点に注意してください:

2.1.8. Row hammer攻撃

Row hammerはDRAMセルの状態漏洩を利用する攻撃手法です。GPUでも利用される可能性があります。 WebGPUは特別な対策を持たず、プラットフォームレベルの対策(メモリリフレッシュ間隔短縮など)に依存します。

2.1.9. サービス妨害(DoS)

WebGPUアプリケーションはGPUメモリや計算ユニットへアクセス可能です。WebGPU実装は、他のアプリケーションの応答性維持のため、利用可能なGPUメモリ量を制限する場合があります。 GPU処理時間については、アプリケーションが数秒以上GPUの応答を止めないよう「ウォッチドッグ」タイマーを設けることもできます。 これらの対策はWebGLでも用いられています。

2.1.10. ワークロード識別

WebGPUは同一マシン上で動作する他プログラム(Webページ)と共有される制約付きグローバルリソースへアクセスします。アプリケーションは、これら共有リソースの利用パターンから、他ページで実行中のワークロードを間接的に推測することが可能です。 これらの問題は、JavascriptでのシステムメモリやCPU実行スループットに関する問題と同様です。WebGPUは追加の対策を提供しません。

2.1.11. メモリリソース

WebGPUは、VRAMなどのマシングローバルメモリヒープからの失敗可能な割り当てを公開します。 これにより、あるヒープ種別の残りメモリ量を、割り当てを試みて失敗を監視することで推測できます。

GPUは内部的に1つ以上(通常は2つのみ)のメモリヒープを、全アプリケーションで共有しています。ヒープが枯渇するとWebGPUはリソース作成に失敗します。 これは観測可能であり、悪意あるアプリケーションが他アプリケーションのヒープ利用状況や割り当て量を推測できる場合があります。

2.1.12. 計算リソース

他サイトが同時にWebGPUを利用すると、処理完了までの時間増加を観測できる場合があります。例えば、サイトが継続的に計算ワークロードをキューへ送り、完了を監視することで、他の何かがGPU利用を開始したことを推測できます。

GPUには演算ユニット、テクスチャサンプリングユニット、アトミックユニット等、個別にテスト可能な多数の部品があります。悪意あるアプリケーションは、これらユニットの負荷状況を感知し、他アプリケーションのワークロードを推測しようとする場合があります。これはJavascriptのCPU実行状況と同様の現実です。

2.1.13. 機能の濫用

悪意あるサイトは、WebGPUが公開する機能を悪用し、ユーザーや体験の利益にならない計算(隠れた暗号通貨マイニング、パスワード解析、レインボーテーブル計算など)を実行する可能性があります。

API利用のこうした用途を防ぐことはできません。ブラウザーが正当なワークロードと悪用ワークロードを区別できないためです。これはWeb上の汎用計算機能(JavaScript、WebAssembly、WebGL)全般に共通する問題で、WebGPUは一部ワークロードの実装・実行を容易または効率化するだけです。

この種の濫用軽減策として、ブラウザーはバックグラウンドタブの操作をスロットリングしたり、リソース大量利用中のタブを警告したり、WebGPU利用可能なコンテキストを制限できます。

ユーザーエージェントは、特に悪意ある利用による高い電力消費に対し、ユーザーへの警告を経験的に発することができます。 そのような警告を実装する場合、JavaScript、WebAssembly、WebGLなどと同様にWebGPUも判断基準に含めるべきです。

2.2. プライバシーの考慮事項

ここにはトラッキングベクトルがあります。 WebGPUのプライバシー考慮事項はWebGLと似ています。GPU APIは複雑であり、開発者が効果的に利用するために、デバイスの機能の様々な側面を必要に応じて公開する必要があります。一般的な対策としては、識別につながる情報を正規化またはビニングし、可能な限り挙動を統一することが含まれます。

ユーザーエージェントは、32個を超える識別可能な構成やバケットを公開してはなりません。

2.2.1. 機器固有の機能と制限

WebGPUは、基盤となるGPUアーキテクチャやデバイス形状に関する多くの詳細を公開できます。 これには利用可能な物理アダプター、GPUやCPUリソースの多数の制限(最大テクスチャサイズなど)、および利用可能なオプションのハードウェア固有機能が含まれます。

ユーザーエージェントは、実際のハードウェア制限を公開する義務はなく、機器固有情報の公開度合いを完全に制御できます。フィンガープリント防止の一手として、すべてのターゲットプラットフォームを少数のビンにまとめる手法があります。全体として、ハードウェア制限の公開によるプライバシーへの影響はWebGLと同等です。

デフォルトの制限値も、ほとんどのアプリケーションがより高い制限を要求せずとも動作できるよう、意図的に十分高く設定されています。 APIの利用は要求された制限値に従い検証されるため、実際のハードウェア機能が偶然ユーザーに露出することはありません。

2.2.2. 機器固有のアーティファクト

WebGLと同様に、機器固有のラスタライズ/精度アーティファクトやパフォーマンス差が観測される場合があります。これにはラスタライズ範囲やパターン、シェーダーステージ間の補間精度、計算ユニットのスケジューリング、その他実行に関する要素が含まれます。

一般に、ラスタライズや精度のフィンガープリントはベンダーごとのほぼ全デバイスで一致します。パフォーマンス差は比較的扱い難いですが、信号としても低い傾向(JS実行性能と同様)です。

プライバシー重視のアプリケーションやユーザーエージェントは、こうしたアーティファクトを除去するためにソフトウェア実装を利用すべきです。

2.2.3. 機器固有のパフォーマンス

ユーザーを識別するもう一つの要素は、GPU上の特定操作の性能測定です。低精度タイミングでも、操作の繰り返し実行により、ユーザーのマシンが特定ワークロードに強いかどうかが判明します。 これはWebGLやJavascriptにも存在する一般的なベクトルですが、信号としては低く、完全な正規化は困難です。

WebGPUの計算パイプラインは、固定機能ハードウェアに妨げられないGPUアクセスを公開します。これによりユニークなデバイスフィンガープリントのリスクが高まります。ユーザーエージェントは論理的なGPU呼び出しと実際の計算ユニットを分離する等の対策でリスク低減が可能です。

2.2.4. ユーザーエージェントの状態

本仕様は、オリジンごとの追加ユーザーエージェント状態を定義していません。 ただし、ユーザーエージェントは高負荷なコンパイル結果(GPUShaderModuleGPURenderPipelineGPUComputePipeline等)のコンパイルキャッシュを持つことが期待されます。 これらのキャッシュはWebGPUアプリケーションの初回訪問後の読み込み時間短縮に重要です。

仕様上は、これらのキャッシュは非常に高速なコンパイルと区別できませんが、アプリケーション側ではcreateComputePipelineAsync()の解決にかかる時間を容易に測定でき、オリジン間で情報漏洩する可能性があります(例:「ユーザーがこの特定のシェーダーでサイトへアクセスしたか」)。そのためユーザーエージェントはストレージ分割のベストプラクティスに従うべきです。

システムのGPUドライバも独自のシェーダーやパイプラインのコンパイルキャッシュを持つ場合があります。ユーザーエージェントは可能な限りこれらを無効化するか、パーティションごとのデータをシェーダーへ加えて、GPUドライバが別物とみなすようにすることもできます。

2.2.5. ドライバのバグ

セキュリティの考慮事項で述べた懸念に加え、ドライバのバグはユーザーの識別手段となる挙動差を生じる場合があります。セキュリティの考慮事項に記載の対策(GPUベンダーとの協調、既知問題へのワークアラウンド実装等)もここで適用されます。

2.2.6. アダプタ識別子

WebGLの過去の経験から、開発者がGPUの種類を特定可能であることが、堅牢なGPUベースコンテンツの作成・保守に正当な必要があることが示されています。例として、既知のドライババグがあるアダプタを特定して回避したり、特定ハードウェアで性能が期待通りでない機能を避けたりする場合などです。

しかしアダプタ識別子の公開はフィンガープリント情報の増加につながるため、識別精度の制限が望まれます。

堅牢なコンテンツとプライバシー保護のバランスを取るため、いくつかの対策が可能です。まず、ユーザーエージェントが既知のドライバ問題を特定し回避することで、開発者の負担を軽減できます(これはブラウザがGPU利用を始めて以来行われています)。

アダプタ識別子をデフォルトで公開する場合、可能な限り幅広く(ベンダーや一般的なアーキテクチャのみ)しつつ有用性を保つべきです。場合によっては、実際のアダプタの合理的な代理となる識別子を報告する場合もあります。

バグ報告など、アダプタの詳細情報が有用な場合は、ユーザーの同意を得て追加情報をページに公開することが可能です。

最後に、ユーザーエージェントは、強化プライバシーモードなど適切と判断した場合、アダプタ識別子を一切報告しない裁量を常に持ちます。

3. 基本事項

3.1. 規約

3.1.1. 構文上の省略形

本仕様では、以下の構文上の省略形を使用します:

.(ドット)構文。プログラミング言語で一般的です。

Foo.Bar」は「値(またはインターフェース)FooBarメンバー」を意味します。 Foo順序付きマップであり、BarFoo存在しない場合はundefinedを返します。

Foo.Bar提供されている」は「値FooマップBarメンバーが存在する」ことを意味します。

?.(オプショナルチェーン)構文。JavaScript由来です。

Foo?.Bar」は「Foonullまたはundefined、またはBarFoo存在しない場合はundefined、それ以外はFoo.Bar」を意味します。

例として、bufferGPUBufferの場合、 buffer?.\[[device]].\[[adapter]]は 「buffernullまたはundefinedならundefined、 それ以外はbuffer\[[device]]内部スロットの\[[adapter]]内部スロット」を指します。

??(ヌリッシュ合体)構文。JavaScript由来です。

x ?? y」は「xがnullまたはundefinedでないならx、そうでなければy」です。

スロットバック属性

同名の内部スロットで裏付けられるWebIDL属性です。可変の場合と不可変の場合があります。

3.1.2. WebGPUオブジェクト

WebGPUオブジェクトは、WebGPUインターフェース内部オブジェクトから構成されます。

WebGPUインターフェースは、WebGPUオブジェクトの公開インターフェースと状態を定義します。 作成されたコンテンツタイムライン上で利用でき、JavaScript公開WebIDLインターフェースです。

GPUObjectBaseを含むインターフェースはすべてWebGPUインターフェースです。

内部オブジェクトは、WebGPUオブジェクトの状態をデバイスタイムライン上で追跡します。 内部オブジェクトの可変状態の読み書きは、単一の順序付けられたデバイスタイムライン上でのみ実行されます。

以下の特別なプロパティ型がWebGPUオブジェクトに定義できます:

不変プロパティ

オブジェクト初期化時に設定される読み取り専用スロット。任意のタイムラインからアクセスできます。

注意: このスロットは不変なので、必要に応じて複数のタイムラインでコピーを持つことができます。 不変プロパティは、本仕様で複数コピーの記述を避けるためこう定義されています。

[[角括弧付き]]の場合は内部スロット。
角括弧なしの場合はスロットバック属性です。

コンテンツタイムラインプロパティ

オブジェクト作成時のコンテンツタイムラインでのみアクセス可能なプロパティ。

[[角括弧付き]]の場合は内部スロット。
角括弧なしの場合はスロットバック属性です。

デバイスタイムラインプロパティ

内部オブジェクトの状態を追跡し、作成されたデバイスタイムラインでのみアクセス可能なプロパティ。デバイスタイムラインプロパティは可変です。

デバイスタイムラインプロパティ[[角括弧付き]]で内部スロットです。

キュータイムラインプロパティ

内部オブジェクトの状態を追跡し、作成されたキュータイムラインでのみアクセス可能なプロパティ。キュータイムラインプロパティは可変です。

キュータイムラインプロパティ[[角括弧付き]]で内部スロットです。

interface mixin GPUObjectBase {
    attribute USVString label;
};
新しいWebGPUオブジェクトを作成する(GPUObjectBase parent, interface T, GPUObjectDescriptorBase descriptor) (TGPUObjectBaseを拡張する) 場合、次のコンテンツタイムライン手順を実行する:
  1. deviceparent.[[device]]とする。

  2. objectTの新しいインスタンスとする。

  3. object.[[device]]deviceを設定する。

  4. object.labeldescriptor.labelを設定する。

  5. objectを返す。

GPUObjectBase には以下の不変プロパティがあります:

[[device]]device(readonly)

内部オブジェクトの所有するデバイスです。

このオブジェクトの内容への操作はassertデバイスタイムライン上で動作し、デバイスが有効であることを検証します。

GPUObjectBase には以下のコンテンツタイムラインプロパティがあります:

labelUSVString

開発者が指定するラベル。実装定義の方法で利用されます。 ブラウザ、OS、その他ツールが、基盤となる内部オブジェクトを開発者へ識別するために使用可能です。 例:GPUError メッセージ、コンソール警告、ブラウザデベロッパーツール、プラットフォームデバッグユーティリティなどで表示されます。

注意:
実装はラベルを使ってWebGPUオブジェクトの識別を強化したエラーメッセージを推奨します。

ただし、これは唯一の識別方法である必要はありません。 実装は他の利用可能な情報も活用 すべき です。ラベルがない場合など、例えば:

注意:
labelGPUObjectBaseのプロパティです。 2つのGPUObjectBaseラッパーオブジェクトは、同じ基盤オブジェクトを参照していても、ラベル状態は完全に分離しています (例:getBindGroupLayout()で返された場合)。 labelプロパティは、JavaScriptから設定された場合のみ変更されます。

つまり、1つの基盤オブジェクトが複数ラベルと関連付けられる場合があります。 本仕様ではラベルがデバイスタイムラインに伝搬する方法は定義しません。 ラベルの利用方法は完全に実装定義です。エラーメッセージで最新ラベル、全ラベル、あるいはラベルなしを表示する場合があります。

一部ユーザーエージェントが基盤ネイティブAPIのデバッグ機能にラベルを渡す場合があるため、型はUSVStringです。

GPUObjectBase には以下のデバイスタイムラインプロパティがあります:

[[valid]]boolean (初期値true

trueの場合、内部オブジェクトが有効であることを示します。

注:
理想的には、WebGPUインターフェイスは、それらを所有する [[device]] などの親オブジェクトがガベージコレクションされるのを妨げるべきではありません。ただし、一部の実装では親オブジェクトへの強い参照を保持する必要があるため、これを保証することはできません。

その結果、開発者はWebGPUインターフェイスが、そのインターフェイスのすべての子オブジェクトもガベージコレクションされるまで存続し続ける可能性があり、一部のリソースが予想よりも長く割り当てられたままになることを想定すべきです。

割り当てられたリソースを予測可能に解放したい場合、ガベージコレクションに頼るよりも、WebGPUインターフェイス(例えば GPUDevice.destroy()GPUBuffer.destroy()destroy メソッドを呼び出すことが推奨されます。

3.1.3. オブジェクト記述子

オブジェクト記述子は、オブジェクトの作成に必要な情報を保持します。 通常、create*メソッド(GPUDeviceのメソッド)を使って作成されます。

dictionary GPUObjectDescriptorBase {
    USVString label = "";
};

GPUObjectDescriptorBase のメンバーは以下の通りです:

labelUSVString、デフォルト値 ""

GPUObjectBase.labelの初期値です。

3.2. 非同期性

3.2.1. 無効な内部オブジェクトと伝播する無効性

WebGPUのオブジェクト生成操作はPromiseを返しませんが、内部的には非同期処理です。返されるオブジェクトは内部オブジェクトを参照し、デバイスタイムライン上で操作されます。 例外やリジェクトで失敗するのではなく、多くのエラーは関連するデバイスタイムラインGPUErrorを生成し、デバイスに通知します。

内部オブジェクト有効無効のいずれかです。 無効オブジェクトは後で有効になることはありませんが、 有効オブジェクトが無効化される場合もあります。

作成時にオブジェクトが無効になる場合があります。例えばオブジェクト記述子が有効なオブジェクトを表していない場合や、リソース割り当てに十分なメモリがない場合です。 また、他の無効なオブジェクトから生成した場合(例:無効なGPUTextureに対してcreateView()を呼ぶ場合)も発生します。 このケースは伝播する無効性と呼ばれます。

内部オブジェクトほとんどの型で作成後に無効になりませんが、使用不能になる場合があります(例:所有デバイスが失われたdestroyedされた、バッファ状態が「destroyed」など)。

一部の型では、作成後に無効になる場合があります。特に、デバイスアダプターGPUCommandBuffer、 コマンド/パス/バンドルエンコーダです。

あるGPUObjectBase object有効であるとは、 object.[[valid]]trueであることです。
あるGPUObjectBase object無効であるとは、 object.[[valid]]falseであることです。
あるGPUObjectBase objecttargetObject併用可能(valid to use with)であるとは、以下のデバイスタイムライン条件をすべて満たす場合です:
GPUObjectBase object無効化するには、以下のデバイスタイムライン手順を実行します:
  1. object.[[valid]]falseに設定する。

3.2.2. Promiseの順序付け

WebGPUのいくつかの操作はPromiseを返します。

WebGPUは、これらのPromiseの解決(resolveまたはreject)順序について、以下を除き保証しません:

アプリケーションは他のPromiseの解決順序に依存してはなりません。

3.3. 座標系

レンダリング操作では、以下の座標系を使用します:

注意: WebGPUの座標系はDirectXのグラフィックスパイプラインの座標系に一致します。

3.4. プログラミングモデル

3.4.1. タイムライン

WebGPUの挙動は「タイムライン」で記述されます。 各操作(アルゴリズムとして定義)は、タイムライン上で実行されます。 タイムラインは、操作の順序と、どの状態がどの操作から参照できるかを明確に定義します。

注意: この「タイムライン」モデルは、ブラウザエンジンのマルチプロセスモデル(通常「コンテンツプロセス」と「GPUプロセス」)や、 多くの実装でGPU自体が独立した実行ユニットであることに由来する制約を記述します。 WebGPUの実装は、タイムラインで並列実行する必要はないため、複数プロセスやスレッドは必須ではありません。 (ただし、get a copy of the image contents of a contextのように、他タイムラインの完了を同期的に待つ場合は並行処理が必要です。)

コンテンツタイムライン

Webスクリプトの実行に関連付けられます。 本仕様で記載されているすべてのメソッド呼び出しを含みます。

あるGPUDevice deviceの操作でコンテンツタイムラインへ手順を発行するには、 queue a global task for GPUDevice deviceでその手順を発行します。

デバイスタイムライン

ユーザーエージェントが発行するGPUデバイス操作に関連付けられます。 アダプター、デバイス、GPUリソースや状態オブジェクトの作成を含みます。これらは通常、GPUを制御するユーザーエージェント側から見ると同期的ですが、別プロセスで実行されることもあります。

キュータイムライン

GPUの計算ユニット上での操作の実行に関連付けられます。実際の描画、コピー、計算ジョブなどGPU上で実行される処理を含みます。

タイムライン非依存

上記いずれかのタイムラインに関連します。

不変プロパティimmutable propertiesや 呼び出し元から渡された引数のみを操作する場合、どのタイムラインにも手順を発行できます。

以下は各タイムラインに関連する手順や値のスタイリング例です。 このスタイリングは規定ではありません。仕様本文では常に関連付けを記述します。
不変値例用語 定義

すべてのタイムラインで利用可能です。

コンテンツタイムライン例用語 定義

コンテンツタイムラインのみで利用可能です。

デバイスタイムライン例用語 定義

デバイスタイムラインのみで利用可能です。

キュータイムライン例用語 定義

キュータイムラインのみで利用可能です。

タイムライン非依存な手順はこのような見た目です。

不変値例用語の利用例。

コンテンツタイムラインで実行される手順はこのような見た目です。

不変値例用語の利用例。 コンテンツタイムライン例用語の利用例。

デバイスタイムラインで実行される手順はこのような見た目です。

不変値例用語の利用例。 デバイスタイムライン例用語の利用例。

キュータイムラインで実行される手順はこのような見た目です。

不変値例用語の利用例。 キュータイムライン例用語の利用例。

本仕様では、非同期操作は戻り値がコンテンツタイムライン以外のタイムラインで行われる処理に依存する場合に使われます。 APIではPromiseやイベントで表現されます。

GPUComputePassEncoder.dispatchWorkgroups():
  1. ユーザーはdispatchWorkgroupsコマンドをGPUComputePassEncoderのメソッドで呼び出し、コンテンツタイムライン上でエンコードされます。

  2. ユーザーはGPUQueue.submit() を呼び、 GPUCommandBuffer をユーザーエージェントに渡します。これはOSドライバによる低レベルのサブミットとしてデバイスタイムライン上で処理されます。

  3. サブミットはGPUの呼び出しスケジューラによって実際の計算ユニットへ割り当てられ、キュータイムライン上で実行されます。

GPUDevice.createBuffer():
  1. ユーザーはGPUBufferDescriptor を記入し、 GPUBuffer を作成します。 これはコンテンツタイムライン上で行われます。

  2. ユーザーエージェントはデバイスタイムライン上で低レベルのバッファを作成します。

GPUBuffer.mapAsync():
  1. ユーザーはGPUBuffer のマップをコンテンツタイムライン上でリクエストし、Promiseが返されます。

  2. ユーザーエージェントはバッファがGPUで現在使用中かどうかを確認し、使用終了後に再確認するリマインダーを設定します。

  3. GPUがキュータイムライン上でバッファの使用を終えた後、ユーザーエージェントがメモリへのマッピングを行い、Promiseをresolveします。

3.4.2. メモリモデル

このセクションは規定ではありません。

アプリケーション初期化時にGPUDeviceを取得したら、 WebGPUプラットフォームは以下のレイヤーで構成されると記述できます:

  1. 本仕様を実装するユーザーエージェント。

  2. このデバイス用の低レベルネイティブAPIドライバを持つオペレーティングシステム。

  3. 実際のCPUおよびGPUハードウェア。

WebGPUプラットフォームの各レイヤーは、 ユーザーエージェントが仕様実装時に考慮すべき異なるメモリ型を持つ場合があります:

ほとんどの物理リソースは、 GPUによる計算やレンダリングに効率的なメモリ型で割り当てられます。 ユーザーがGPUに新しいデータを提供する必要がある場合、データがプロセス境界を越えてGPUドライバと通信するユーザーエージェント部分へ届き、 さらにドライバに見えるようにする必要があります(これはドライバ割り当てのステージングメモリへのコピーを伴う場合もあります)。 最後に、専用GPUメモリへ転送され、内部レイアウトがGPU操作に最適な形へ変換されることもあります。

これらすべての遷移は、ユーザーエージェントによるWebGPU実装で処理されます。

注: この例は最悪の場合を説明していますが、実際には実装がプロセス境界を越える必要がなかったり、ドライバ管理のメモリを ArrayBuffer を介してユーザーに直接公開できたりして、データのコピーを回避できる場合もあります。

3.4.3. リソースの使用法

物理リソースは、内部使用法としてGPUコマンドで利用できます。

input

描画やディスパッチ呼び出しの入力データ用バッファ。内容は保持されます。 buffer INDEX、 buffer VERTEX、 buffer INDIRECTで許可されます。

constant

シェーダーから見て定数となるリソースバインディング。内容は保持されます。 buffer UNIFORM または texture TEXTURE_BINDINGで許可されます。

storage

読み書き可能なストレージリソースバインディング。 buffer STORAGE または texture STORAGE_BINDINGで許可されます。

storage-read

読み取り専用ストレージリソースバインディング。内容は保持されます。 buffer STORAGE または texture STORAGE_BINDINGで許可されます。

attachment

レンダーパスで読み書き出力アタッチメントや書き込み専用リゾルブターゲットとして使うテクスチャ。 texture RENDER_ATTACHMENTで許可されます。

attachment-read

レンダーパスで読み取り専用アタッチメントとして使うテクスチャ。内容は保持されます。 texture RENDER_ATTACHMENTで許可されます。

サブリソースは、バッファ全体またはテクスチャのサブリソースです。

一部の内部使用法は他と互換性があります。サブリソースは、複数の使用法を組み合わせた状態になることがあります。リストU互換使用法リストである条件は、次のいずれかです:

使用法が互換使用法リストにだけ組み合わされるよう強制することで、APIはメモリ操作のデータ競合発生タイミングを制限できます。 この性質により、WebGPU向けに書かれたアプリケーションが異なるプラットフォームでも修正なしで動作しやすくなります。

例:
同じバッファをstorageとしてもinputとしても同じGPURenderPassEncoder内でバインドすると、そのバッファは互換使用法リストにはなりません。
例:
これらのルールにより読み取り専用深度ステンシルが可能です。1つの深度/ステンシルテクスチャをレンダーパス内で2種類の読み取り専用使用法として同時利用できます:
例:
使用法範囲ストレージ例外により、通常は許可されない2つのケースが許可されます:
例:
使用法範囲アタッチメント例外により、テクスチャサブリソースを複数回attachmentとして利用可能です。 これは、3Dテクスチャの非重複スライスを1つのレンダーパスで異なるアタッチメントとしてバインドするために必要です。

同じスライスを2つの異なるアタッチメントに重複してバインド不可です。これはbeginRenderPass()で検証されます。

3.4.4. 同期

使用法範囲は、マップであり、サブリソースからlist<内部使用法>>への対応です。 各使用法範囲は、互いに同時実行可能な一連の操作範囲をカバーし、その範囲内ではサブリソースの使用法が一貫した互換使用法リストでなければなりません。

使用法範囲scopeは、使用法範囲の検証を通過します。すべての[subresource, usageList]について、usageList互換使用法リストである場合です。
使用法範囲usageScope追加するには、サブリソースsubresourceと(内部使用法または内部使用法の集合)usageを指定して:
  1. usageScope[subresource]が存在しない場合、[]に設定する。

  2. 追加usageusageScope[subresource]へ追加。

使用法範囲A使用法範囲B統合するには:
  1. 各[subresource, usage]に対し:

    1. 追加subresourceBへ、使用法usageで追加。

使用法範囲はエンコード時に構築・検証されます:

使用法範囲は以下の通り:

注意: コピーコマンドは単独の操作であり、使用法範囲検証には使いません。自己競合防止のため独自検証を行います。

例:
以下のリソース使用法は使用法範囲に含まれます:

3.5. コア内部オブジェクト

3.5.1. アダプター

アダプターは、システム上のWebGPU実装を識別します。 これは、ブラウザの基盤となるプラットフォーム上の計算/レンダリング機能のインスタンス、そしてその機能上に構築されたブラウザのWebGPU実装のインスタンスの両方を指します。

アダプターGPUAdapter で公開されます。

アダプターは基盤実装を一意に表しません。 requestAdapter() を複数回呼ぶと、毎回異なるアダプターオブジェクトが返されます。

アダプターオブジェクトは、1つのデバイスしか生成できません。 requestDevice() に成功すると、アダプターの[[state]]"consumed" に変化します。 さらに、アダプターオブジェクトはいつでも期限切れになる場合があります。

注意: これにより、アプリケーションはデバイス生成時に最新のシステム状態を利用したアダプター選択を行えます。 また、初回初期化、アダプターの抜き差しによる再初期化、テスト用のGPUDevice.destroy() 呼び出しによる再初期化など、様々なシナリオで堅牢性が高まります。

アダプターは、広い互換性・予測可能な挙動・プライバシー向上などを目的に、著しい性能低下を伴う場合、フォールバックアダプターと見なされる場合があります。すべてのシステムでフォールバックアダプターが利用可能である必要はありません。

アダプターには次の不変プロパティがあります:

[[features]]ordered set<GPUFeatureName> (読み取り専用)

このアダプター上でデバイス生成に利用可能な機能

[[limits]]supported limits (読み取り専用)

このアダプター上でデバイス生成に利用可能な最良の制限値。

各アダプター制限値は、supported limits内のデフォルト値と同等またはより良い値でなければなりません。

[[fallback]]boolean (読み取り専用)

trueの場合、このアダプターはフォールバックアダプターです。

[[xrCompatible]] 型 boolean

trueの場合、このアダプターはWebXRセッションとの互換性を持つようにリクエストされたことを示します。

アダプターには次のデバイスタイムラインプロパティがあります:

[[state]] 初期値 "valid"
"valid"

このアダプターはデバイス生成に利用可能です。

"consumed"

このアダプターはすでにデバイス生成に利用されており、再利用できません。

"expired"

このアダプターは他の理由で期限切れになっています。

GPUAdapter adapter期限切れにするには、以下のデバイスタイムライン手順を実行します:
  1. adapter.[[adapter]].[[state]]"expired" を設定する。

3.5.2. デバイス

デバイスは、アダプターの論理的インスタンスであり、 これを通じて内部オブジェクトが生成されます。

デバイスGPUDevice を通じて公開されます。

デバイスは、そこから生成されたすべての内部オブジェクトの排他的な所有者です。 デバイス無効失われたまたは destroyed)になると、 それとその上で生成されたすべてのオブジェクト(直接:createTexture()、間接:createView()など)は、 暗黙的に利用不可となります。

デバイスには以下の不変プロパティがあります:

[[adapter]]アダプター (読み取り専用)

このデバイスが生成されたアダプターです。

[[features]]ordered set<GPUFeatureName> (読み取り専用)

このデバイス上で利用できる機能(生成時に算出)。 基盤アダプターが他の機能をサポートしていても、追加機能は利用できません。

[[limits]]supported limits (読み取り専用)

このデバイスで利用できる制限値(生成時に算出)。 基盤アダプターがより良い制限値をサポートしていても、追加利用はできません。

デバイスには以下のコンテンツタイムラインプロパティがあります:

[[content device]]GPUDevice (読み取り専用)

このデバイスに関連付けられたコンテンツタイムラインGPUDevice インターフェース。

アダプター adapter から GPUDeviceDescriptor descriptor新しいデバイスを生成するには、以下のデバイスタイムライン手順を実行します:
  1. featuresdescriptor.requiredFeatures の値からなるセットとする。

  2. features"texture-formats-tier2" が含まれていれば:

    1. 追加"texture-formats-tier1"features に加える。

  3. features"texture-formats-tier1" が含まれていれば:

    1. 追加"rg11b10ufloat-renderable"features に加える。

  4. 追加"core-features-and-limits"features に加える。

  5. limitsを、すべての値がデフォルト値に設定されたsupported limitsオブジェクトとする。

  6. descriptor.requiredLimitsの各(key, value)ペアについて:

    1. valueundefinedでなく、かつlimits[key]より良い場合:

      1. limits[key]にvalueを設定。

  7. deviceデバイスオブジェクトとする。

  8. device.[[adapter]]adapterを設定。

  9. device.[[features]]featuresを設定。

  10. device.[[limits]]limitsを設定。

  11. deviceを返す。

ユーザーエージェントがデバイスへのアクセスを取り消す必要がある場合は、 lose the device(device, "unknown") をデバイスのデバイスタイムライン上で呼び出します。 この操作は、同タイムライン上でキューされている他の操作よりも先に実行される場合があります。

操作が失敗し、その副作用がデバイス上のオブジェクトの状態を可視的に変化させたり、内部実装/ドライバ状態を破損する可能性がある場合は、 その変更が可視化されるのを防ぐため、デバイスを失うべきです。

注意: アプリケーションが(destroy()で)明示的に開始しないすべてのデバイス喪失については、 ユーザーエージェントはlostプロミスが処理されている場合でも、開発者向け警告を無条件で表示するべきです。 これらのシナリオは稀であるべきですが、WebGPU APIの多くがアプリケーションのランタイムフローを中断しないため(検証エラーなし、ほとんどのPromiseは通常通り解決)、シグナルは開発者にとって重要です。

device失う(device, reason)には、以下のデバイスタイムライン手順を実行します:
  1. 無効化deviceを無効にする。

  2. device.[[content device]]コンテンツタイムラインで以下の手順を発行する:

    1. device.lostを新しいGPUDeviceLostInfoで解決し、 reasonreasonmessage実装定義値を設定する。

      注意: messageは不必要なユーザー/システム情報を開示すべきでなく、アプリケーションによってパースされるべきではありません。

  3. device失われた状態になるまで待機している未完了手順を完了する。

注意: 失われたデバイスからはエラーは生成されません。 詳細は§ 22 エラーとデバッグを参照。

タイムラインイベントをリッスンする eventdevice device上で、タイムラインtimelinestepsで処理するには:

その場合は、timeline上でstepsを発行する。

3.6. オプション機能

WebGPUのアダプターデバイス機能を持ちます。 これは、WebGPUの機能が実装ごとに異なることを示すもので、主にハードウェアやシステムソフトウェアの制約によるものです。 機能機能(feature)または制限(limit)のいずれかです。

ユーザーエージェントは、32個を超える識別可能な構成やバケットを公開してはなりません。

アダプターの機能は§ 4.2.1 アダプター機能保証に準拠しなければなりません。

サポートされている機能だけがrequestDevice()で要求可能です。 サポートされていない機能を要求すると失敗します。

デバイスの機能は"新しいデバイス"で決定され、アダプターのデフォルト(機能なし・デフォルトのsupported limits)から始まり、requestDevice()で要求された機能が加えられます。 これらの機能は、アダプターの機能に関係なく強制されます。

ここにはトラッキングベクトルがあります。 プライバシーの考慮事項については § 2.2.1 機器固有の機能と制限 を参照してください。

3.6.1. 機能

機能は、すべての実装でサポートされているわけではないWebGPUのオプション機能セットです。主にハードウェアやシステムソフトウェアの制約により左右されます。

すべての機能はオプションですが、アダプターはその可用性についてある程度の保証をします(§ 4.2.1 アダプター機能保証参照)。

デバイスは、生成時に決定された機能のみをサポートします(§ 3.6 オプション機能参照)。 API呼び出しは、これらの機能(アダプターの機能ではなく)に従って検証を行います。

GPUFeatureName feature有効(enabled for)であるとは、 GPUObjectBase objectにおいて、 object.[[device]].[[features]]feature含む場合のみです。

各機能が有効にする機能内容の説明は機能一覧を参照してください。

注: サポートされている場合でも、機能を有効にすることが必ずしも望ましいとは限りません。有効化によってパフォーマンスへの影響が生じる可能性があるためです。 このため、またデバイスや実装間の移植性を高めるためにも、アプリケーションは実際に必要となる可能性のある機能のみをリクエストするべきです。

3.6.2. 制限

制限は、デバイス上でWebGPUを利用する際の数値的な制約です。

注: サポートされている場合でも、「より良い」リミットを設定することが必ずしも望ましいとは限りません。設定によってパフォーマンスに影響が出る可能性があるためです。 このため、またデバイスや実装間の移植性を高めるためにも、アプリケーションは実際に必要となる場合のみ、デフォルトより良いリミットをリクエストするべきです。

各制限にはデフォルト値があります。

アダプターは常にデフォルトまたはより良い制限値をサポートすることが保証されています(§ 4.2.1 アダプター機能保証参照)。

デバイスは生成時に決定された制限値のみをサポートします(§ 3.6 オプション機能参照)。 API呼び出しは、これらの制限値(アダプターの制限値ではなく)に従って検証されます。より良い/悪い値は利用できません。

任意の制限値について、ある値は他の値よりも優れている場合があります。 優れている制限値は常に検証を緩和し、より多くのプログラムが有効となります。各制限クラスごとに「優れている」の定義があります。

制限値ごとに異なる制限クラスがあります:

最大値

制限はAPIへ渡される値の最大値を強制します。

高い値ほどより良い値です。

設定できるのはデフォルト値以上(≥ デフォルト値)のみです。 より低い値はデフォルト値に丸められます。

アライメント

制限はAPIへ渡される値の最小アライメント(値は制限値の倍数でなければならない)を強制します。

低い値ほどより良い値です。

設定できるのはデフォルト値以下かつ2の累乗(≤ デフォルト値)のみです。 2の累乗でない値は無効です。 より高い2の累乗値はデフォルト値に丸められます。

supported limitsオブジェクトは、WebGPUで定義されるすべての制限値を保持します:

制限名 制限クラス デフォルト値
maxTextureDimension1D GPUSize32 最大値 8192
size.width に指定できる最大値(テクスチャdimension "1d"指定時)。
maxTextureDimension2D GPUSize32 最大値 8192
size.widthおよび size.height に指定できる最大値(テクスチャdimension "2d"指定時)。
maxTextureDimension3D GPUSize32 最大値 2048
size.widthsize.height およびsize.depthOrArrayLayers に指定できる最大値(テクスチャdimension "3d"指定時)。
maxTextureArrayLayers GPUSize32 最大値 256
size.depthOrArrayLayers に指定できる最大値(テクスチャdimension "2d"指定時)。
maxBindGroups GPUSize32 最大値 4
GPUBindGroupLayoutsbindGroupLayouts に指定できる最大数(GPUPipelineLayout作成時)。
maxBindGroupsPlusVertexBuffers GPUSize32 最大値 24
バインドグループと頂点バッファスロットの同時利用最大数(空スロットも含む、最大インデックス以下のすべて)。createRenderPipeline()draw呼び出しで検証される。
maxBindingsPerBindGroup GPUSize32 最大値 1000
GPUBindGroupLayout作成時に利用できるバインディングインデックス数。

注意: この制限は規定ですが任意です。 デフォルトのバインディングスロット制限では、1つのバインドグループで1000個のバインディングは実際には利用不可能ですが、 GPUBindGroupLayoutEntry.binding の値としては999まで指定可能です。 実装はバインディング空間を配列として扱うことができ、メモリ使用量が過度にならない範囲で疎なマップ構造ではなく配列管理が可能となります。

maxDynamicUniformBuffersPerPipelineLayout GPUSize32 最大値 8
GPUBindGroupLayoutEntry のうち、動的オフセット付きユニフォームバッファがGPUPipelineLayout全体で利用できる最大数。 バインディングスロット制限を超える場合を参照。
maxDynamicStorageBuffersPerPipelineLayout GPUSize32 最大値 4
GPUBindGroupLayoutEntry のうち、動的オフセット付きストレージバッファがGPUPipelineLayout全体で利用できる最大数。 バインディングスロット制限を超える場合を参照。
maxSampledTexturesPerShaderStage GPUSize32 最大値 16
GPUShaderStage stageごとに、 GPUBindGroupLayoutEntry のうちサンプリングテクスチャがGPUPipelineLayout全体で利用できる最大数。 バインディングスロット制限を超える場合を参照。
maxSamplersPerShaderStage GPUSize32 最大値 16
GPUShaderStage stageごとに、 GPUBindGroupLayoutEntry のうちサンプラーがGPUPipelineLayout全体で利用できる最大数。 バインディングスロット制限を超える場合を参照。
maxStorageBuffersPerShaderStage GPUSize32 最大値 8
GPUShaderStage stageごとに、 GPUBindGroupLayoutEntry のうちストレージバッファがGPUPipelineLayout全体で利用できる最大数。 バインディングスロット制限を超える場合を参照。
maxStorageTexturesPerShaderStage GPUSize32 最大値 4
GPUShaderStage stageごとに、 GPUBindGroupLayoutEntry のうちストレージテクスチャがGPUPipelineLayout全体で利用できる最大数。 バインディングスロット制限を超える場合を参照。
maxUniformBuffersPerShaderStage GPUSize32 最大値 12
GPUShaderStage stageごとに、 GPUBindGroupLayoutEntry のうちユニフォームバッファがGPUPipelineLayout全体で利用できる最大数。 バインディングスロット制限を超える場合を参照。
maxUniformBufferBindingSize GPUSize64 最大値 65536 バイト
GPUBufferBinding.size の最大値( GPUBindGroupLayoutEntry entryentry.buffer?.type"uniform" の場合)。
maxStorageBufferBindingSize GPUSize64 最大値 134217728 バイト (128 MiB)
GPUBufferBinding.size の最大値( GPUBindGroupLayoutEntry entryentry.buffer?.type"storage" または "read-only-storage" の場合)。
minUniformBufferOffsetAlignment GPUSize32 アライメント 256 バイト
GPUBufferBinding.offset および setBindGroup()で指定する動的オフセットのアライメント( GPUBindGroupLayoutEntry entryentry.buffer?.type"uniform" の場合)。
minStorageBufferOffsetAlignment GPUSize32 アライメント 256 バイト
GPUBufferBinding.offset および setBindGroup()で指定する動的オフセットのアライメント( GPUBindGroupLayoutEntry entryentry.buffer?.type"storage" または "read-only-storage" の場合)。
maxVertexBuffers GPUSize32 最大値 8
buffers の最大数(GPURenderPipeline作成時)。
maxBufferSize GPUSize64 最大値 268435456 バイト (256 MiB)
size の最大値(GPUBuffer作成時)。
maxVertexAttributes GPUSize32 最大値 16
attributes の合計最大数(buffersを含む、GPURenderPipeline作成時)。
maxVertexBufferArrayStride GPUSize32 最大値 2048 バイト
arrayStride の最大値(GPURenderPipeline作成時)。
maxInterStageShaderVariables GPUSize32 最大値 16
ステージ間通信(頂点出力やフラグメント入力など)の入出力変数の最大数。
maxColorAttachments GPUSize32 最大値 8
GPURenderPipelineDescriptor.fragment.targetsGPURenderPassDescriptor.colorAttachmentsGPURenderPassLayout.colorFormats で指定できるカラーアタッチメント最大数。
maxColorAttachmentBytesPerSample GPUSize32 最大値 32
すべてのカラーアタッチメントに対し、レンダーパイプライン出力データの1サンプル(ピクセルまたはサブピクセル)保持に必要な最大バイト数。
maxComputeWorkgroupStorageSize GPUSize32 最大値 16384 バイト
計算ステージのworkgroupストレージで利用できる最大バイト数(シェーダーエントリポイントごと)。
maxComputeInvocationsPerWorkgroup GPUSize32 最大値 256
計算ステージのworkgroup_size各次元の積の最大値(シェーダーエントリポイントごと)。
maxComputeWorkgroupSizeX GPUSize32 最大値 256
計算ステージのworkgroup_sizeのX次元最大値(シェーダーエントリポイントごと)。
maxComputeWorkgroupSizeY GPUSize32 最大値 256
計算ステージのworkgroup_sizeのY次元最大値(シェーダーエントリポイントごと)。
maxComputeWorkgroupSizeZ GPUSize32 最大値 64
計算ステージのworkgroup_sizeのZ次元最大値(シェーダーエントリポイントごと)。
maxComputeWorkgroupsPerDimension GPUSize32 最大値 65535
dispatchWorkgroups(workgroupCountX, workgroupCountY, workgroupCountZ) の引数に指定できる最大値。
3.6.2.1. GPUSupportedLimits

GPUSupportedLimits は、アダプターまたはデバイスのサポートされる制限値を公開します。 GPUAdapter.limits および GPUDevice.limits を参照してください。

[Exposed=(Window, Worker), SecureContext]
interface GPUSupportedLimits {
    readonly attribute unsigned long maxTextureDimension1D;
    readonly attribute unsigned long maxTextureDimension2D;
    readonly attribute unsigned long maxTextureDimension3D;
    readonly attribute unsigned long maxTextureArrayLayers;
    readonly attribute unsigned long maxBindGroups;
    readonly attribute unsigned long maxBindGroupsPlusVertexBuffers;
    readonly attribute unsigned long maxBindingsPerBindGroup;
    readonly attribute unsigned long maxDynamicUniformBuffersPerPipelineLayout;
    readonly attribute unsigned long maxDynamicStorageBuffersPerPipelineLayout;
    readonly attribute unsigned long maxSampledTexturesPerShaderStage;
    readonly attribute unsigned long maxSamplersPerShaderStage;
    readonly attribute unsigned long maxStorageBuffersPerShaderStage;
    readonly attribute unsigned long maxStorageTexturesPerShaderStage;
    readonly attribute unsigned long maxUniformBuffersPerShaderStage;
    readonly attribute unsigned long long maxUniformBufferBindingSize;
    readonly attribute unsigned long long maxStorageBufferBindingSize;
    readonly attribute unsigned long minUniformBufferOffsetAlignment;
    readonly attribute unsigned long minStorageBufferOffsetAlignment;
    readonly attribute unsigned long maxVertexBuffers;
    readonly attribute unsigned long long maxBufferSize;
    readonly attribute unsigned long maxVertexAttributes;
    readonly attribute unsigned long maxVertexBufferArrayStride;
    readonly attribute unsigned long maxInterStageShaderVariables;
    readonly attribute unsigned long maxColorAttachments;
    readonly attribute unsigned long maxColorAttachmentBytesPerSample;
    readonly attribute unsigned long maxComputeWorkgroupStorageSize;
    readonly attribute unsigned long maxComputeInvocationsPerWorkgroup;
    readonly attribute unsigned long maxComputeWorkgroupSizeX;
    readonly attribute unsigned long maxComputeWorkgroupSizeY;
    readonly attribute unsigned long maxComputeWorkgroupSizeZ;
    readonly attribute unsigned long maxComputeWorkgroupsPerDimension;
};
3.6.2.2. GPUSupportedFeatures

GPUSupportedFeaturessetlikeインターフェースです。そのset entriesは、 アダプターまたはデバイスがサポートする機能GPUFeatureName 値です。GPUFeatureName enumのいずれかの文字列しか含めてはなりません。

[Exposed=(Window, Worker), SecureContext]
interface GPUSupportedFeatures {
    readonly setlike<DOMString>;
};
注意:
GPUSupportedFeaturesset entries型はDOMStringです。 これは、現行標準の後続リビジョンで追加された有効なGPUFeatureNameで、 ユーザーエージェントがまだ認識しないものでも、正常に扱えるようにするためです。 set entries型が GPUFeatureNameだった場合、 下記コードはTypeErrorを投げてしまい、falseを返せません:
未認識機能のサポート有無判定例:
if (adapter.features.has('unknown-feature')) {
    // Use unknown-feature
} else {
    console.warn('unknown-feature is not supported by this adapter.');
}
3.6.2.3. WGSLLanguageFeatures

WGSLLanguageFeaturesnavigator.gpu.wgslLanguageFeaturesで利用可能なsetlikeインターフェースです。 そのset entriesは、実装がサポートするWGSL言語拡張の文字列名です (アダプターやデバイスに関係なく判定されます)。

[Exposed=(Window, Worker), SecureContext]
interface WGSLLanguageFeatures {
    readonly setlike<DOMString>;
};
3.6.2.4. GPUAdapterInfo

GPUAdapterInfo はアダプターの識別情報を公開します。

GPUAdapterInfo のメンバーは、特定値の設定が保証されません。値がない場合、その属性は空文字("")を返します。 どの値を公開するかはユーザーエージェントの裁量であり、端末によっては値が一切設定されないことも十分あり得ます。 したがって、アプリケーションはGPUAdapterInfo の任意の値や値が未設定の場合も必ず扱えるようにする必要があります

アダプターのGPUAdapterInfoGPUAdapter.info およびGPUDevice.adapterInfoで公開されます。 この情報は不変です。 あるアダプターに対しては、各GPUAdapterInfo 属性はアクセスするたびに同じ値を返します。

注意: GPUAdapterInfo の属性は初回アクセス時点で不変ですが、実装は各属性の公開値を初回アクセスまで遅延決定しても構いません。

注意: 他のGPUAdapterインスタンス(同じ物理アダプターを表していても)でも、 GPUAdapterInfoの値が異なる場合があります。 ただし、特定のイベント(ページが追加の識別情報取得を許可された場合。現行標準では該当イベント定義なし)がない限り、値は同じにすべきです。

ここにはトラッキングベクトルがあります。 プライバシーの考慮事項については § 2.2.6 アダプター識別子 を参照してください。

[Exposed=(Window, Worker), SecureContext]
interface GPUAdapterInfo {
    readonly attribute DOMString vendor;
    readonly attribute DOMString architecture;
    readonly attribute DOMString device;
    readonly attribute DOMString description;
    readonly attribute unsigned long subgroupMinSize;
    readonly attribute unsigned long subgroupMaxSize;
    readonly attribute boolean isFallbackAdapter;
};

GPUAdapterInfo には以下の属性があります:

vendor, DOMString, 読み取り専用

アダプターのベンダー名(利用可能な場合)。なければ空文字。

architecture, DOMString, 読み取り専用

アダプターが属するGPUファミリー・クラス名(利用可能な場合)。なければ空文字。

device, DOMString, 読み取り専用

アダプターのベンダー固有識別子(利用可能な場合)。なければ空文字。

注意: これはアダプター種別を表す値(例:PCIデバイスID)です。シリアル番号など特定機器一意の値ではありません。

description, DOMString, 読み取り専用

ドライバが報告するアダプターの人間可読説明(利用可能な場合)。なければ空文字。

注意: description には整形が一切施されないため、パースは推奨されません。既知のドライバ問題回避など、GPUAdapterInfoで動作変更する場合は、他フィールドを利用すべきです。

subgroupMinSize, unsigned long, 読み取り専用

"subgroups" 機能がサポートされている場合、アダプターの最小サブグループサイズ。

subgroupMaxSize, unsigned long, 読み取り専用

"subgroups" 機能がサポートされている場合、アダプターの最大サブグループサイズ。

isFallbackAdapter, boolean, 読み取り専用

アダプターがフォールバックアダプターかどうか。

adapter adapter新しいアダプター情報を作成するには、以下のコンテンツタイムライン手順を実行します:
  1. adapterInfoを新しいGPUAdapterInfoとする。

  2. ベンダーが判明していれば、adapterInfo.vendor にベンダー名(正規化識別文字列)を設定する。プライバシー保護のため、ユーザーエージェントは空文字または適当なベンダー名(正規化識別文字列)にしてもよい。

  3. アーキテクチャが判明していれば、adapterInfo.architecture にアダプターが属するファミリー・クラス名(正規化識別文字列)を設定する。プライバシー保護のため、空文字または適当なアーキテクチャ名(正規化識別文字列)でもよい。

  4. デバイスが判明していれば、adapterInfo.device にベンダー固有識別子(正規化識別文字列)を設定する。プライバシー保護のため、空文字または適当な識別子(正規化識別文字列)でもよい。

  5. 説明が判明していれば、adapterInfo.description にドライバ報告の説明文を設定。プライバシー保護のため、空文字または適当な説明でもよい。

  6. "subgroups" がサポートされていれば、subgroupMinSize に最小サブグループサイズを設定。なければ4とする。

    注意: プライバシー保護のため、ユーザーエージェントは一部機能をサポートしないか、区別不能でも利用可能な値(例:すべて4にする)を返す場合がある。

  7. "subgroups" がサポートされていれば、subgroupMaxSize に最大サブグループサイズを設定。なければ128とする。

    注意: プライバシー保護のため、ユーザーエージェントは一部機能をサポートしないか、区別不能でも利用可能な値(例:すべて128にする)を返す場合がある。

  8. adapterInfo.isFallbackAdapteradapter.[[fallback]]で設定。

  9. adapterInfoを返す。

正規化識別文字列は次のパターンに従います:

[a-z0-9]+(-[a-z0-9]+)*

a-z 0-9 -
正規化識別文字列の有効例:
  • gpu

  • 3d

  • 0x3b2f

  • next-gen

  • series-x20-ultra

3.7. 機能検出

このセクションは規範的ではありません。

この仕様を完全に実装するには、特に明記されている場合(§ 3.6 オプション機能など)を除き、規定されているすべてを実装する必要があります。

しかし、新しい「コア」追加は実装によって公開される前にこの仕様に追加されるため、多くの機能はアプリケーションによって機能検出できるように設計されています:

3.8. 拡張文書

「拡張文書」とは、新しい機能を説明する追加文書であり、非規定でありWebGPU/WGSL仕様の一部ではありません。 これらは本仕様を基盤として構築される機能を記述し、多くの場合新しいAPI機能フラグやWGSLのenableディレクティブ、他のドラフトWeb標準との連携を含みます。

WebGPUの実装は拡張機能を公開してはなりません。公開すると仕様違反となります。 新しい機能はWebGPU標準(本ドキュメント)やWGSL仕様に統合されるまで、WebGPU標準の一部にはなりません。

3.9. オリジン制限

WebGPUは画像、動画、キャンバスに保存された画像データへのアクセスを許可します。 シェーダーによってGPUへアップロードされたテクスチャ内容を間接的に推測できるため、クロスドメインメディアの利用には制限があります。

WebGPUは、オリジンがクリーンでない画像ソースのアップロードを禁止します。

これは、WebGPUで描画されたキャンバスのorigin-cleanフラグがfalseになることは決してないことも意味します。

画像・動画要素のCORSリクエスト発行については以下を参照してください:

3.10. タスクソース

3.10.1. WebGPUタスクソース

WebGPUは新しいタスクソースWebGPUタスクソース」を定義します。 これはuncapturederrorイベントおよびGPUDevice.lostに使用されます。

GPUDevice deviceに対し、グローバルタスクをキューするには、 コンテンツタイムライン上で手順stepsを使って:
  1. グローバルタスクをキューするWebGPUタスクソースで、deviceを生成したグローバルオブジェクトとstepsを指定)。

3.10.2. 自動期限切れタスクソース

WebGPUは新しいタスクソース自動期限切れタスクソース」を定義します。 これは特定オブジェクトの自動・タイマーによる期限切れ(破棄)に使用されます:

GPUDevice deviceに対し、自動期限切れタスクをキューするには、 コンテンツタイムライン上で手順stepsを使って:
  1. グローバルタスクをキューする自動期限切れタスクソースで、deviceを生成したグローバルオブジェクトとstepsを指定)。

自動期限切れタスクソースからのタスクは高優先度で処理すべきです。特に、キューされたらユーザー定義(JavaScript)タスクより先に実行すべきです。

注意:
この挙動はより予測可能であり、厳格さによって暗黙のライフタイムに関する誤った仮定を早期に検出しやすくなるため、移植性の高いアプリ開発に役立ちます。開発者は複数実装でのテストを強く推奨します。

実装ノート: 高優先度の期限切れ「タスク」は、実際のタスクを実行する代わりに、イベントループ処理モデル内の固定ポイントに追加手順を挿入する形でも有効です。

3.11. 色空間とエンコーディング

WebGPUはカラーマネジメントを提供しません。WebGPU内部の値(テクスチャ要素など)はすべて生の数値であり、カラーマネージされた値ではありません。

WebGPUは、カラーマネージされた出力(GPUCanvasConfiguration)や入力 (copyExternalImageToTexture()importExternalTexture())と連携します。 したがって、WebGPU数値と外部色値との間で色変換が必要となります。 各インターフェースポイントごとに、WebGPU数値が解釈されるエンコーディング(色空間、伝達関数、アルファ事前乗算)がローカルに定義されます。

WebGPUは、PredefinedColorSpace enumのすべての色空間を許可します。 各色空間はCSS定義に基づき拡張範囲を持ち、色空間外の値も表現可能です(色度・輝度両方)。

注:
上述のとおり、GPUTextureはカラーマネージメントされていません。これは -srgb フォーマットも含まれますが、これらは tagged されたsRGBカラースペース( PredefinedColorSpace やCSSカラースペース srgbsrgb-linear のような)であるわけではありません。

しかし、-srgb テクスチャフォーマットにはガンマエンコード/デコードの特性があり、これは "srgb""display-p3" で使われているガンマエンコーディングとアルゴリズム的に近いものです。 たとえば、フラグメントシェーダーで「sRGB-linear」エンコード(物理的線形)のカラーバリューを -srgb フォーマットテクスチャに出力すると、書き込み時に値がガンマエンコードされます。 その後、テクスチャ内の値は "srgb" タグ付き(知覚的にほぼ線形)のキャンバスで正しく使用できるようにエンコードされます。

同様に、これらの特性は copyExternalImageToTexture() を使うことで活用することも可能です。詳しくはその説明を参照してください。

ガマット外の事前乗算RGBA値とは、R/G/Bチャネル値がアルファ値を超えるものです。例:事前乗算sRGB RGBA値[1.0, 0, 0, 0.5]は(非事前乗算)色[2, 0, 0]で50%アルファを表し、CSSではrgb(srgb 2 0 0 / 50%)。 sRGB色域外の色値同様、これは拡張色空間の定義済み点です(ただしアルファ0の場合は色がありません)。 ただし、この値を可視キャンバスへ出力する場合、結果は未定義です(GPUCanvasAlphaMode "premultiplied"参照)。

3.11.1. 色空間変換

色は、上記で定義された方法に従い、ある色空間での表現を別の色空間の表現に変換することで変換されます。

元の値にRGBAチャンネルが4つ未満の場合、欠損している緑/青/アルファチャンネルは順に0, 0, 1として補われ、その後に色空間/エンコーディング変換やアルファプリマルチ化処理が行われます。変換後に宛先が4チャンネル未満を必要とする場合は、余分なチャンネルは無視されます。

注意: グレースケール画像は一般的にその色空間内でRGB値(V, V, V)、またはRGBA値(V, V, V, A)として表現されます。

色は変換中に不可逆的にクランプされません:ある色空間から別の色空間へ変換する際、元の色値が宛先色空間のガマット範囲外の場合は、[0, 1]の範囲外の値になることがあります。例えばsRGBが宛先の場合、元がrgba16floatやDisplay-P3などの広色域だったり、プリマルチプライされてガマット外値を含んでいる場合に発生します。

同様に、元の値が高ビット深度(例:各成分16ビットのPNG)や拡張範囲(例:float16ストレージのcanvas)の場合でも、これらの色は色空間変換を通じて保持され、中間計算の精度も元データの精度以上となります。

3.11.2. 色空間変換省略

色空間・エンコーディング変換の元と先が同じならば、変換は不要です。一般に、変換の任意のステップが恒等関数(no-op)の場合、実装はパフォーマンスのため省略すべきです。

最適なパフォーマンスのため、アプリケーションは色空間やエンコーディング設定を工夫し、必要な変換数を最小化するべきです。 GPUCopyExternalImageSourceInfoの各種画像ソースに関して:

注意: これらの機能に依存する前に、各ブラウザの実装サポート状況を確認してください。

3.12. JavaScriptからWGSLへの数値変換

WebGPU APIのいくつかの部分(pipeline-overridable constants や レンダーパスのクリア値)は、WebIDL(doublefloat)の数値を受け取り、 WGSL値(bool, i32, u32, f32, f16)へ変換します。

IDL値idlValue(型double またはfloat)を WGSL型Tへ変換するには、 (TypeErrorを投げる可能性あり) 以下のデバイスタイムライン手順を実行します:

注意: このTypeErrorデバイスタイムラインで生成され、JavaScriptには表出しません。

  1. アサートidlValueは有限値である(unrestricted doubleunrestricted floatではないため)。

  2. vを、!によるidlValueECMAScript値への変換結果とする。

  3. もし Tbool の場合

    WGSL bool値を返します。これは ! を使い vIDL値boolean に変換した結果に対応します。

    注: このアルゴリズムは ECMAScript の値を IDL doublefloat に変換した後に呼ばれます。元の ECMAScript 値が数値でもブール値でもない []{} の場合、WGSL bool の結果は、元の値を IDL boolean に直接変換した場合と異なることがあります。

    もし Ti32 の場合

    WGSL i32値を返します。これは?を使いvIDL値型[EnforceRange] longに変換した結果に対応します。

    もし Tu32 の場合

    WGSL u32値を返します。これは?を使いvIDL値型[EnforceRange] unsigned longに変換した結果に対応します。

    もし Tf32 の場合

    WGSL f32値を返します。これは?を使いvIDL値floatに変換した結果に対応します。

    もし Tf16 の場合
    1. wgslF32を、?を使いvをIDL値型floatに変換したWGSL f32値とする。

    2. f16(wgslF32)、すなわちWGSL f32値を!f16に変換した結果(WGSL浮動小数点変換定義)を返す。

    注: 値がf32の範囲内なら、値がf16の範囲外でもエラーは発生しません。

GPUColor colorテクスチャフォーマットのテクセル値formatへ変換するには、 (TypeErrorを投げる可能性あり) 以下のデバイスタイムライン手順を実行します:

注意: このTypeErrorデバイスタイムラインで生成され、JavaScriptには表出しません。

  1. formatの各コンポーネント(assert:すべて同じ型)は:

    浮動小数点型または正規化型の場合

    Tf32とする。

    符号付き整数型の場合

    Ti32とする。

    符号なし整数型の場合

    Tu32とする。

  2. wgslColorをWGSL型vec4<T>とし、各RGBAチャネル値はcolorの値を ?WGSL型Tへ変換したもの。

  3. wgslColor§ 23.2.7 出力マージの変換規則でformatへ変換し、結果を返す。

    注意: 整数型以外の場合、値の選択は実装定義となる。 正規化型の場合、値は型の範囲にクランプされる。

注意: つまり、書き込まれる値はWGSLシェーダーがvec4f32, i32, u32)として出力した場合と同じになります。

4. 初期化

GPUオブジェクトは Window および WorkerGlobalScope コンテキストで利用でき、Navigator および WorkerNavigator インターフェースを通じて navigator.gpu で公開されます。

interface mixin NavigatorGPU {
    [SameObject, SecureContext] readonly attribute GPU gpu;
};
Navigator includes NavigatorGPU;
WorkerNavigator includes NavigatorGPU;

NavigatorGPU には以下の属性があります:

gpu, GPU, 読み取り専用

requestAdapter() などトップレベルエントリポイントを提供するグローバルシングルトン。

4.2. GPU

GPUはWebGPUへの入り口です。

[Exposed=(Window, Worker), SecureContext]
interface GPU {
    Promise<GPUAdapter?> requestAdapter(optional GPURequestAdapterOptions options = {});
    GPUTextureFormat getPreferredCanvasFormat();
    [SameObject] readonly attribute WGSLLanguageFeatures wgslLanguageFeatures;
};

GPUは以下のメソッドを持ちます:

requestAdapter(options)

ユーザーエージェントにアダプターを要求します。 ユーザーエージェントはアダプターを返すかどうか選択し、返す場合は指定オプションに従って決定します。

呼び出し元: GPU this.

引数:

GPU.requestAdapter(options)メソッドの引数
パラメータ Nullable Optional 説明
options GPURequestAdapterOptions アダプター選択基準。

戻り値: Promise<GPUAdapter?>

コンテンツタイムライン手順:

  1. contentTimelineを現在のコンテンツタイムラインとする。

  2. promise新しいPromiseとする。

  3. initialization stepsthisデバイスタイムラインで発行する。

  4. promiseを返す。

デバイスタイムライン initialization steps:
  1. 次の手順の要求はすべて満たされなければなりません

    1. options.featureLevel 機能レベル文字列でなければなりません。

    満たされ、かつユーザーエージェントがアダプター返却を選択した場合:

    1. adapterアダプターを、§ 4.2.2 アダプター選択ルールとoptionsの基準に従い、 § 4.2.1 アダプター機能保証に従って選択・初期化する:

      1. adapter.[[limits]]adapter.[[features]] をアダプターのサポート機能に応じて設定する。 adapter.[[features]] には"core-features-and-limits"が含まれていなければならない。

      2. adapterフォールバックアダプター基準を満たす場合は adapter.[[fallback]]trueに、それ以外はfalseにする。

      3. adapter.[[xrCompatible]]options.xrCompatible を設定する。

    それ以外の場合:

    1. adapternullにする。

  2. 以降の手順をcontentTimelineで発行する。

コンテンツタイムライン手順:
  1. もし adapternull でなければ:

    1. 解決する promise を、新しい GPUAdapteradapter をカプセル化して解決する。

    それ以外の場合:

    1. 解決する promisenull で解決する。

getPreferredCanvasFormat()

8bit深度・標準ダイナミックレンジコンテンツ表示に最適なGPUTextureFormatを返します。 返す値は"rgba8unorm" または "bgra8unorm" のみです。

返された値はformat として configure()GPUCanvasContext で呼ぶ際に渡すことで、関連するキャンバスの効率的な表示が保証されます。

注意: 画面表示されないキャンバスでは、このフォーマット利用が有利とは限りません。

呼び出し元: GPU this.

戻り値: GPUTextureFormat

コンテンツタイムライン手順:

  1. WebGPUキャンバス表示に最適な形式に応じて"rgba8unorm" または "bgra8unorm" のいずれかを返す。

GPUは以下の属性を持ちます:

wgslLanguageFeatures, WGSLLanguageFeatures, 読み取り専用

サポートされるWGSL言語拡張名。サポートされる言語拡張は自動的に有効化されます。

アダプターいつでも 期限切れになる可能性があります。システム状態に変更が生じ、requestAdapter() の結果に影響する場合、ユーザーエージェントはすべての既返却済み アダプター期限切れにすべきです。例:

注意: ユーザーエージェントは、システム状態変化がなくても(例:アダプター作成後数秒・数分後など)、アダプターを頻繁に期限切れにすることを選択できます。 これにより実際のシステム状態変化の隠蔽や、requestAdapter() を再度呼び出す必要性の認識向上につながります。 この状況になっても標準的なデバイスロス回復処理で復旧可能です。

ヒントなしでGPUAdapterを要求する例:
const gpuAdapter = await navigator.gpu.requestAdapter();

4.2.1. アダプター機能保証

GPUAdapterrequestAdapter() で返された場合、以下の保証が必要です:

4.2.2. アダプター選択

GPURequestAdapterOptions は、ユーザーエージェントに対してアプリケーションに適した構成のヒントを与えます。

dictionary GPURequestAdapterOptions {
    DOMString featureLevel = "core";
    GPUPowerPreference powerPreference;
    boolean forceFallbackAdapter = false;
    boolean xrCompatible = false;
};
enum GPUPowerPreference {
    "low-power",
    "high-performance",
};

GPURequestAdapterOptions には以下のメンバーがあります:

featureLevel, DOMString, デフォルト"core"

アダプター要求の「機能レベル」。

許可される機能レベル文字列値は:

"core"

効果なし。

"compatibility"

効果なし。

注意: この値は将来的に追加検証制約へのオプトイン用途で予約されています。現時点では使用しないでください。

powerPreference, GPUPowerPreference

システムの利用可能アダプターからどの種類のアダプターを選択するかのヒントを任意で指定します。

このヒント値は選択されるアダプターに影響する場合がありますが、アダプター返却有無には影響しません。

注意: このヒントの主な用途は、マルチGPU環境で使用するGPUを選択することです。 例えば一部ノートPCは低消費電力統合GPUと高性能離散GPUを持ちます。このヒントは選択GPUの電源設定にも影響する場合があります。

注意: バッテリー状態や外部ディスプレイ・着脱式GPUなどのハード構成により、同じpowerPreferenceでも異なるアダプターが選択される場合があります。 一般的には同一ハード構成・状態とpowerPreferenceなら同じアダプターが選ばれる傾向です。

以下のいずれかの値:

undefined(未指定時)

ユーザーエージェントへのヒントなし。

"low-power"

パフォーマンスより消費電力節約を優先する要求。

注意: 通常、描画性能制約がない場合(例:1fpsのみ描画、簡単なジオメトリやシェーダーのみ、HTMLキャンバス小サイズなど)はこれを使うべきです。 許容されるなら本値利用を推奨します。携帯機器のバッテリ寿命向上に大きく寄与します。

"high-performance"

消費電力よりパフォーマンスを優先する要求。

注意: この値を選択すると、デバイス生成時、ユーザーエージェントが電力節約のため低消費電力アダプターに切替え、デバイスロスを強制しやすくなります。 本当に必要な場合以外は指定を控えましょう。携帯機器のバッテリ寿命が大幅に低下する場合があります。

forceFallbackAdapter, boolean, デフォルトfalse

true指定時、フォールバックアダプターのみ返却可能。ユーザーエージェントがrequestAdapter()フォールバックアダプター未対応なら null で解決。

注意: requestAdapter()forceFallbackAdapterfalseでも他に適切なアダプターがなかった場合やユーザーエージェント判断で フォールバックアダプターを返す場合があります。 フォールバックアダプターでの動作を防ぎたい場合、info.isFallbackAdapter 属性を確認してからGPUDeviceを要求してください。

xrCompatible, boolean, デフォルトfalse

trueに設定すると、WebXRセッション向けの描画に最適なアダプターが返されるべきであることを示します。ユーザーエージェントやシステムがWebXRセッションをサポートしていない場合は、この値はアダプター選択時に無視されることがあります。

注意: xrCompatibletrue指定せずアダプター要求した場合、そのGPUDeviceWebXRセッション用描画に利用できません。

"high-performance" GPUAdapter を要求する例:
const gpuAdapter = await navigator.gpu.requestAdapter({
    powerPreference: 'high-performance'
});

4.3. GPUAdapter

GPUAdapterアダプターをカプセル化し、 その機能(featureslimits)を記述します。

GPUAdapter を取得するには、requestAdapter()を使います。

[Exposed=(Window, Worker), SecureContext]
interface GPUAdapter {
    [SameObject] readonly attribute GPUSupportedFeatures features;
    [SameObject] readonly attribute GPUSupportedLimits limits;
    [SameObject] readonly attribute GPUAdapterInfo info;

    Promise<GPUDevice> requestDevice(optional GPUDeviceDescriptor descriptor = {});
};

GPUAdapter には以下の不変プロパティがあります。

features, GPUSupportedFeatures, 読み取り専用

this.[[adapter]].[[features]]の値セット。

limits, GPUSupportedLimits, 読み取り専用

this.[[adapter]].[[limits]]の制限値。

info, GPUAdapterInfo, 読み取り専用

このGPUAdapterの下層物理アダプター情報。

同一GPUAdapterに対してはGPUAdapterInfoの値は常に一定です。

毎回同じオブジェクトが返されます。初回生成方法:

呼び出し元: GPUAdapter this.

戻り値: GPUAdapterInfo

コンテンツタイムライン手順:

  1. this.[[adapter]]に対して新しいアダプター情報を返す。

[[adapter]], 型 adapter, 読み取り専用

このGPUAdapterが参照するアダプター

GPUAdapter には以下のメソッドがあります:

requestDevice(descriptor)

アダプターからデバイスを要求します。

これは一度限りの操作であり、デバイスが返されたらアダプターは"consumed"状態になります。

呼び出し元: GPUAdapter this.

引数:

GPUAdapter.requestDevice(descriptor)メソッドの引数
パラメータ Nullable Optional 説明
descriptor GPUDeviceDescriptor 要求するGPUDeviceの詳細。

戻り値: Promise<GPUDevice>

コンテンツタイムライン手順:

  1. contentTimelineを現在のコンテンツタイムラインとする。

  2. promise新しいPromiseとする。

  3. adapterthis.[[adapter]]とする。

  4. initialization stepsthisデバイスタイムラインで発行する。

  5. promiseを返す。

デバイスタイムライン initialization steps:
  1. 次のいずれかの要件を満たしていない場合:

    満たさない場合、以降の手順をcontentTimelineで実行し終了:

    コンテンツタイムライン手順:
    1. rejectpromiseTypeErrorで解決。

    注意: このエラーは、ブラウザが機能名を全く認識しない(GPUFeatureName定義にない)場合と同じです。 ブラウザが機能をサポートしない場合と、特定アダプターが機能をサポートしない場合の動作が収束します。

  2. 次のすべての要件を満たさなければなりません

    1. adapter.[[state]]"consumed"であってはならない。

    2. descriptor.requiredLimitsの各[key, value](valueundefinedでないもの)について:

      1. keysupported limitsメンバー名でなければならない。

      2. valueadapter.[[limits]][key]より良い値であってはならない。

      3. keyクラスアライメントの場合、valueは2の累乗かつ232未満でなければならない。

      注意: keyが未認識の場合、valueundefinedでも開発者向け警告表示を検討すべきです。

    満たさない場合、以降の手順をcontentTimelineで実行し終了:

    コンテンツタイムライン手順:
    1. rejectpromiseOperationErrorで解決。

  3. adapter.[[state]]"expired"またはユーザーエージェントが要求を満たせない場合:

    1. deviceを新しいdeviceとする。

    2. Lose the device(device, "unknown").

    3. assertadapter.[[state]]"expired"である。

      注意: この場合、ユーザーエージェントはほぼすべての場合で開発者向け警告表示を検討すべきです。アプリケーションはrequestAdapter()から再初期化ロジックを行うべきです。

    それ以外の場合:

    1. devicedescriptorで記述された機能を持つ新しいデバイスとする。

    2. expireadapterを期限切れに。

  4. 以降の手順をcontentTimelineで発行する。

コンテンツタイムライン手順:
  1. gpuDeviceを新しいGPUDeviceインスタンスとする。

  2. gpuDevice.[[device]]deviceを設定。

  3. device.[[content device]]gpuDeviceを設定。

  4. gpuDevice.labeldescriptor.labelを設定。

  5. resolvepromisegpuDeviceで解決する。

    注意: アダプターが要求を満たせずデバイスが既に失われている場合は、device.lostpromiseより先に解決されています。

デフォルト機能・制限値でGPUDeviceを要求する例:
const gpuAdapter = await navigator.gpu.requestAdapter();
const gpuDevice = await gpuAdapter.requestDevice();

4.3.1. GPUDeviceDescriptor

GPUDeviceDescriptor はデバイス要求内容を記述します。

dictionary GPUDeviceDescriptor
         : GPUObjectDescriptorBase {
    sequence<GPUFeatureName> requiredFeatures = [];
    record<DOMString, (GPUSize64 or undefined)> requiredLimits = {};
    GPUQueueDescriptor defaultQueue = {};
};

GPUDeviceDescriptor には以下のメンバーがあります:

requiredFeatures, 型 sequence<GPUFeatureName>、デフォルト[]

デバイス要求で必要な機能を指定します。 アダプターがこれら機能を提供できない場合、要求は失敗します。

API呼び出しの検証では、指定した機能セットのみが利用可能であり、それ以外は利用不可です。

requiredLimits, record<DOMString, (GPUSize64 or undefined)>、デフォルト{}

デバイス要求で必要な制限値を指定します。 アダプターがこれら制限値を提供できない場合、要求は失敗します。

値がundefinedでない各キーはsupported limitsメンバー名でなければなりません。

生成されたデバイスのAPI呼び出しは、そのデバイスの厳密な制限値に従って検証されます(アダプターの制限値ではない。§ 3.6.2 制限参照)。

defaultQueue, GPUQueueDescriptor、デフォルト{}

デフォルトGPUQueueの記述内容。

サポートされていれば"texture-compression-astc"機能付きGPUDeviceを要求する例:
const gpuAdapter = await navigator.gpu.requestAdapter();

const requiredFeatures = [];
if (gpuAdapter.features.has('texture-compression-astc')) {
    requiredFeatures.push('texture-compression-astc')
}

const gpuDevice = await gpuAdapter.requestDevice({
    requiredFeatures
});
より高いmaxColorAttachmentBytesPerSample制限付きGPUDeviceを要求する例:
const gpuAdapter = await navigator.gpu.requestAdapter();

if (gpuAdapter.limits.maxColorAttachmentBytesPerSample < 64) {
    // 希望の制限値が未サポートの場合、より高い制限値を必要としないコードパスへフォールバックするか、
    // デバイスが最低要件を満たしていないことをユーザーに通知するなどの対応を取る。
}

// max color attachments bytes per sampleのより高い制限値を要求。
const gpuDevice = await gpuAdapter.requestDevice({
    requiredLimits: { maxColorAttachmentBytesPerSample: 64 },
});
4.3.1.1. GPUFeatureName

GPUFeatureNameは、 利用可能であればWebGPUの追加利用を許可する機能セットを識別します。

enum GPUFeatureName {
    "core-features-and-limits",
    "depth-clip-control",
    "depth32float-stencil8",
    "texture-compression-bc",
    "texture-compression-bc-sliced-3d",
    "texture-compression-etc2",
    "texture-compression-astc",
    "texture-compression-astc-sliced-3d",
    "timestamp-query",
    "indirect-first-instance",
    "shader-f16",
    "rg11b10ufloat-renderable",
    "bgra8unorm-storage",
    "float32-filterable",
    "float32-blendable",
    "clip-distances",
    "dual-source-blending",
    "subgroups",
    "texture-formats-tier1",
    "texture-formats-tier2",
    "primitive-index",
    "texture-component-swizzle",
};

4.4. GPUDevice

GPUDeviceデバイスをカプセル化し、その機能を公開します。

GPUDeviceWebGPUインターフェースを生成するトップレベルインターフェースです。

GPUDeviceを取得するには、requestDevice()を使用します。

[Exposed=(Window, Worker), SecureContext]
interface GPUDevice : EventTarget {
    [SameObject] readonly attribute GPUSupportedFeatures features;
    [SameObject] readonly attribute GPUSupportedLimits limits;
    [SameObject] readonly attribute GPUAdapterInfo adapterInfo;

    [SameObject] readonly attribute GPUQueue queue;

    undefined destroy();

    GPUBuffer createBuffer(GPUBufferDescriptor descriptor);
    GPUTexture createTexture(GPUTextureDescriptor descriptor);
    GPUSampler createSampler(optional GPUSamplerDescriptor descriptor = {});
    GPUExternalTexture importExternalTexture(GPUExternalTextureDescriptor descriptor);

    GPUBindGroupLayout createBindGroupLayout(GPUBindGroupLayoutDescriptor descriptor);
    GPUPipelineLayout createPipelineLayout(GPUPipelineLayoutDescriptor descriptor);
    GPUBindGroup createBindGroup(GPUBindGroupDescriptor descriptor);

    GPUShaderModule createShaderModule(GPUShaderModuleDescriptor descriptor);
    GPUComputePipeline createComputePipeline(GPUComputePipelineDescriptor descriptor);
    GPURenderPipeline createRenderPipeline(GPURenderPipelineDescriptor descriptor);
    Promise<GPUComputePipeline> createComputePipelineAsync(GPUComputePipelineDescriptor descriptor);
    Promise<GPURenderPipeline> createRenderPipelineAsync(GPURenderPipelineDescriptor descriptor);

    GPUCommandEncoder createCommandEncoder(optional GPUCommandEncoderDescriptor descriptor = {});
    GPURenderBundleEncoder createRenderBundleEncoder(GPURenderBundleEncoderDescriptor descriptor);

    GPUQuerySet createQuerySet(GPUQuerySetDescriptor descriptor);
};
GPUDevice includes GPUObjectBase;

GPUDeviceは 以下の不変プロパティを持ちます:

features, GPUSupportedFeatures, 読み取り専用

このデバイスがサポートするGPUFeatureName 値のセット([[device]].[[features]])。

limits, GPUSupportedLimits, 読み取り専用

このデバイスがサポートする制限値([[device]].[[limits]])。

queue, GPUQueue, 読み取り専用

このデバイスの主キューGPUQueue

adapterInfo, GPUAdapterInfo, 読み取り専用

このGPUDeviceを生成した物理アダプターの情報。

同じGPUDeviceに対しては、 GPUAdapterInfoの値は常に一定です。

毎回同じオブジェクトが返されます。初回生成方法:

呼び出し元: GPUDevice this.

戻り値: GPUAdapterInfo

コンテンツタイムライン手順:

  1. this.[[device]].[[adapter]]に対して新しいアダプター情報を返す。

[[device]]GPUDeviceが参照するdeviceです。

GPUDeviceは以下のメソッドを持ちます:

destroy()

デバイスを破棄し、以降の操作を禁止します。 未完了の非同期操作は失敗します。

注意: デバイスは何度破棄しても有効です。

呼び出し元: GPUDevice this.

コンテンツタイムライン手順:

  1. このデバイスのすべてのGPUBufferunmap()する。

  2. 以降の手順をthisデバイスタイムラインで発行する。

  1. Lose the device(this.[[device]], "destroyed").

注意: このデバイスに対して以降の操作が一切キューされないため、実装は未完了の非同期操作やリソース割り当て(アンマップ直後のメモリ含む)を即座に中断・解放できます。

GPUDevice許可バッファ用途
GPUDevice許可テクスチャ用途

4.5.

より堅牢なGPUAdapter およびGPUDevice要求のエラーハンドリング例:
let gpuDevice = null;

async function initializeWebGPU() {
    // ユーザーエージェントがWebGPUをサポートしているか確認
    if (!('gpu' in navigator)) {
        console.error("ユーザーエージェントがWebGPUをサポートしていません。");
        return false;
    }

    // アダプター要求
    const gpuAdapter = await navigator.gpu.requestAdapter();

    // 適切なアダプターが見つからない場合、requestAdapterはnullで解決されることがある
    if (!gpuAdapter) {
        console.error('WebGPUアダプターが見つかりません。');
        return false;
    }

    // デバイス要求
    // オプション辞書に無効な値が渡された場合、promiseはrejectされる。
    // 必ずアダプターのfeaturesやlimitsを事前に確認してからrequestDevice()を呼ぶこと。
    gpuDevice = await gpuAdapter.requestDevice();

    // requestDeviceはnullを返さないが、何らかの理由で有効なデバイス要求が満たせない場合
    // 既に失われたデバイスとしてresolveされることがあり得る。
    // また、デバイスは作成後も様々な理由(ブラウザのリソース管理、ドライバ更新等)で
    // いつでも失われる可能性があるため、常にロストデバイスを適切に扱うこと。
    gpuDevice.lost.then((info) => {
        console.error(`WebGPUデバイスが失われました: ${info.message}`);

        gpuDevice = null;

        // デバイスロストの多くは一時的なものなので、アプリケーションは
        // 以前のデバイスが失われたら新規取得を試みるべき(意図的なdestroy理由以外)。
        // 前のデバイスで作成したWebGPUリソース(バッファ、テクスチャ等)は
        // 新しいデバイスで再作成する必要がある。
        if (info.reason != 'destroyed') {
            initializeWebGPU();
        }
    });

    onWebGPUInitialized();

    return true;
}

function onWebGPUInitialized() {
    // ここからWebGPUリソース作成処理を開始
}

initializeWebGPU();

5. バッファ

5.1. GPUBuffer

GPUBuffer はGPU操作で利用できるメモリブロックを表します。 データは線形レイアウトで格納されており、割り当て領域の各バイトは GPUBufferの先頭からのオフセットで参照可能ですが、 操作ごとにアライメント制約があります。一部のGPUBufferは マップ可能であり、対応するメモリブロックはArrayBuffer (マッピング)経由でアクセスできます。

GPUBuffercreateBuffer()で作成します。 バッファはmappedAtCreationを指定可能です。

[Exposed=(Window, Worker), SecureContext]
interface GPUBuffer {
    readonly attribute GPUSize64Out size;
    readonly attribute GPUFlagsConstant usage;

    readonly attribute GPUBufferMapState mapState;

    Promise<undefined> mapAsync(GPUMapModeFlags mode, optional GPUSize64 offset = 0, optional GPUSize64 size);
    ArrayBuffer getMappedRange(optional GPUSize64 offset = 0, optional GPUSize64 size);
    undefined unmap();

    undefined destroy();
};
GPUBuffer includes GPUObjectBase;

enum GPUBufferMapState {
    "unmapped",
    "pending",
    "mapped",
};

GPUBufferは 以下の不変プロパティを持ちます:

size, GPUSize64Out, 読み取り専用

GPUBuffer の割り当てサイズ(バイト単位)。

usage, GPUFlagsConstant, 読み取り専用

このGPUBufferで許可されている用途。

GPUBufferは 以下のコンテンツタイムラインプロパティを持ちます:

mapState, GPUBufferMapState, 読み取り専用

バッファの現在のGPUBufferMapState

"unmapped"

バッファがthis.getMappedRange()で利用できるようにマップされていません。

"pending"

バッファのマッピング要求が保留中です。 mapAsync()で検証失敗または成功する可能性があります。

"mapped"

バッファがマップされており、this.getMappedRange() が利用できます。

getter手順

コンテンツタイムライン手順:
  1. this.[[mapping]]nullでなければ、 "mapped"を返す。

  2. this.[[pending_map]]nullでなければ、 "pending"を返す。

  3. "unmapped"を返す。

[[pending_map]], 型 Promise<void> または null(初期値null

現在保留中のPromisemapAsync()呼び出し)を返します。

保留中のマップは常に1つしかありません。既に要求中の場合、mapAsync()は即座に拒否します。

[[mapping]], 型 active buffer mapping または null(初期値null

バッファが現在getMappedRange()で利用可能な場合のみ設定されます。 それ以外の場合はnullです([[pending_map]]があっても)。

active buffer mappingは以下のフィールドを持つ構造体です:

data, 型 Data Block

このGPUBufferのマッピングデータ。 このデータはArrayBufferビューを通じてアクセスされ、getMappedRange()で返され、viewsに格納されます。

mode, 型 GPUMapModeFlags

対応するmapAsync() またはcreateBuffer()呼び出しで指定されたGPUMapModeFlags

range, 型 タプル [unsigned long long, unsigned long long]

マップされたGPUBufferの範囲。

views, 型 list<ArrayBuffer>

アプリケーションにArrayBufferとして返されたビュー。 unmap()呼び出し時に切り離すため管理されます。

active buffer mappingを初期化するには、 mode modeとrange rangeで以下のコンテンツタイムライン手順を実行:
  1. sizerange[1] - range[0]とする。

  2. data? CreateByteDataBlock(size)で作成。

    注意:
    この操作はRangeErrorを投げることがあります。 一貫性・予測可能性のため:
    • その時点でnew ArrayBuffer()が成功するサイズは、この割り当ても成功すべき

    • その時点でnew ArrayBuffer()RangeError決定的に投げるサイズは、この割り当ても同様にすべき

  3. 以下を持つactive buffer mappingを返す:

バッファのマッピングとアンマッピング。
バッファのマッピング失敗。

GPUBufferは 以下のデバイスタイムラインプロパティを持ちます:

[[internal state]]

バッファの現在の内部状態:

available

このバッファはキュー操作で使用できます(ただしinvalidでない場合に限ります)。

unavailable

このバッファはマップされているため、キュー操作で使用できません。

destroyed

このバッファはdestroy()されたため、いかなる操作にも使用できません。

5.1.1. GPUBufferDescriptor

dictionary GPUBufferDescriptor
         : GPUObjectDescriptorBase {
    required GPUSize64 size;
    required GPUBufferUsageFlags usage;
    boolean mappedAtCreation = false;
};

GPUBufferDescriptor には以下のメンバーがあります:

size, GPUSize64

バッファのサイズ(バイト単位)。

usage, GPUBufferUsageFlags

バッファで許可される用途。

mappedAtCreation, boolean(デフォルトfalse

trueの場合、バッファは作成時にすでにマップされた状態となり、getMappedRange()が即座に呼び出し可能となります。mappedAtCreationtrueにしても、usageMAP_READMAP_WRITE を含めなくても有効です。 これはバッファの初期データを設定するために利用できます。

バッファ作成が最終的に失敗した場合でも、アンマップされるまではマップ範囲に書き込み/読み出しできるように見えることが保証されます。

5.1.2. バッファ用途

typedef [EnforceRange] unsigned long GPUBufferUsageFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUBufferUsage {
    const GPUFlagsConstant MAP_READ      = 0x0001;
    const GPUFlagsConstant MAP_WRITE     = 0x0002;
    const GPUFlagsConstant COPY_SRC      = 0x0004;
    const GPUFlagsConstant COPY_DST      = 0x0008;
    const GPUFlagsConstant INDEX         = 0x0010;
    const GPUFlagsConstant VERTEX        = 0x0020;
    const GPUFlagsConstant UNIFORM       = 0x0040;
    const GPUFlagsConstant STORAGE       = 0x0080;
    const GPUFlagsConstant INDIRECT      = 0x0100;
    const GPUFlagsConstant QUERY_RESOLVE = 0x0200;
};

GPUBufferUsage フラグはGPUBufferが作成後にどのように利用できるかを決定します:

MAP_READ

バッファは読み出し用にマップ可能です。(例:mapAsync()GPUMapMode.READを指定)

COPY_DSTとだけ組み合わせ可能です。

MAP_WRITE

バッファは書き込み用にマップ可能です。(例:mapAsync()GPUMapMode.WRITEを指定)

COPY_SRCとだけ組み合わせ可能です。

COPY_SRC

バッファはコピー操作のソースとして利用可能です。(例:copyBufferToBuffer()copyBufferToTexture()呼び出しのsource引数)

COPY_DST

バッファはコピーや書き込み操作の宛先として利用可能です。(例:copyBufferToBuffer()copyTextureToBuffer()呼び出しのdestination引数、あるいはwriteBuffer()ターゲット)

INDEX

バッファはインデックスバッファとして利用可能です。(例:setIndexBuffer()への渡し)

VERTEX

バッファは頂点バッファとして利用可能です。(例:setVertexBuffer()への渡し)

UNIFORM

バッファはユニフォームバッファとして利用可能です。(例:GPUBufferBindingLayout のバインドグループエントリで buffer.type"uniform"の場合)

STORAGE

バッファはストレージバッファとして利用可能です。(例:GPUBufferBindingLayout のバインドグループエントリで buffer.type"storage" または"read-only-storage"の場合)

INDIRECT

バッファは間接コマンド引数の保存に利用可能です。(例:indirectBuffer引数としてdrawIndirect()dispatchWorkgroupsIndirect() 呼び出しで利用)

QUERY_RESOLVE

バッファはクエリ結果の取得に利用可能です。(例:destination引数としてresolveQuerySet()呼び出しで使用)

5.1.3. バッファ作成

createBuffer(descriptor)

GPUBufferを作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createBuffer(descriptor)メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUBufferDescriptor 作成するGPUBufferの記述。

戻り値: GPUBuffer

コンテンツタイムライン手順:

  1. b!新しいWebGPUオブジェクトの作成(this, GPUBuffer, descriptor)とする。

  2. b.sizedescriptor.sizeを設定する。

  3. b.usagedescriptor.usageを設定する。

  4. もしdescriptor.mappedAtCreationtrueなら:

    1. descriptor.sizeが4の倍数でない場合、 RangeErrorを投げる。

    2. b.[[mapping]]?active buffer mappingの初期化 (mode WRITE, range [0, descriptor.size]) を設定する。

  5. initialization stepsthisデバイスタイムラインで発行する。

  6. bを返す。

デバイスタイムライン initialization steps:
  1. 以下の要件が満たされない場合、 検証エラー生成無効化 b、return。

注意: バッファ作成が失敗し、descriptor.mappedAtCreationfalseの場合、 mapAsync()呼び出しは拒否されるため、マッピング用に割り当てられたリソースは破棄または再利用される可能性があります。

  1. もしdescriptor.mappedAtCreationtrueなら:

    1. b.[[internal state]] を"unavailable"に設定する。

    それ以外:

    1. b.[[internal state]] を"available"に設定する。

  2. bのデバイス割り当てを各バイト0で作成する。

    割り当てが副作用なしに失敗した場合、 メモリエラー生成無効化 b、return。

書き込み可能な128バイトのユニフォームバッファを作成する例:
const buffer = gpuDevice.createBuffer({
    size: 128,
    usage: GPUBufferUsage.UNIFORM | GPUBufferUsage.COPY_DST
});

5.1.4. バッファ破棄

アプリケーションがGPUBufferを不要と判断した場合、destroy()を呼び出すことでガベージコレクション前にアクセスを失うことができます。バッファの破棄はマッピングも解除し、マッピング用に割り当てられたメモリも解放します。

注意: これにより、ユーザーエージェントは、そのバッファを使ったすべての操作が完了した時点でGPUメモリを回収できます。

GPUBufferは以下のメソッドを持ちます:

destroy()

GPUBufferを破棄します。

注意: バッファは何度破棄しても有効です。

呼び出し元: GPUBuffer this.

戻り値: undefined

コンテンツタイムライン手順:

  1. this.unmap()を呼び出す。

  2. 以降の手順をthis.[[device]]デバイスタイムラインで発行する。

デバイスタイムライン手順:
  1. this.[[internal state]] を "destroyed"に設定する。

注意: このバッファを使った以降の操作は一切キューできなくなるため、実装はリソース割り当て(アンマップ直後のメモリも含む)を即座に解放可能です。

5.2. バッファのマッピング

アプリケーションはGPUBufferをマッピングするよう要求でき、これによりArrayBufferGPUBufferの一部割り当て領域にアクセス可能となります。GPUBufferのマッピング要求はmapAsync()で非同期に行われ、ユーザーエージェントがGPUの利用完了を確認してからアプリケーションが内容にアクセスできるようにします。マップ中のGPUBufferはGPUで利用できず、unmap()でアンマップしないと、Queueタイムラインで作業登録できません。

一度GPUBufferがマップされると、アプリケーションはgetMappedRange()で範囲アクセスを同期的に要求できます。返されたArrayBufferunmap()(直接またはGPUBuffer.destroy()GPUDevice.destroy()経由)でのみdetach可能です。transferはできません。他の操作がそれを試みるとTypeErrorが投げられます。

typedef [EnforceRange] unsigned long GPUMapModeFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUMapMode {
    const GPUFlagsConstant READ  = 0x0001;
    const GPUFlagsConstant WRITE = 0x0002;
};

GPUMapMode フラグはGPUBuffermapAsync()でどのようにマップされるかを決定します:

READ

このフラグはMAP_READ用途で作成されたバッファにのみ有効です。

バッファがマップされると、getMappedRange()呼び出しはバッファの現行値を含むArrayBufferを返します。返されたArrayBufferの変更はunmap()呼び出し後に破棄されます。

WRITE

このフラグはMAP_WRITE用途で作成されたバッファにのみ有効です。

バッファがマップされると、getMappedRange()呼び出しはバッファの現行値を含むArrayBufferを返します。返されたArrayBufferの変更はGPUBufferunmap()呼び出し後に保存されます。

注意: MAP_WRITE用途のバッファはCOPY_SRC用途のみと組み合わせ可能なため、書き込み用マッピングではGPUで生成された値は返されません。返されるArrayBufferはデフォルト初期化(ゼロ)または前回マッピング時にウェブページで書き込まれたデータのみを含みます。

GPUBufferは以下のメソッドを持ちます:

mapAsync(mode, offset, size)

指定された範囲のGPUBufferをマップし、Promise が解決されるとGPUBufferの内容をgetMappedRange()でアクセスできるようになります。

返されたPromiseの解決はマップが完了したことのみを示し、 現行標準タイムライン上で見える他の操作の完了は保証しません。 特に、他のPromiseonSubmittedWorkDone()や他のmapAsync())が解決されていることは意味しません。

PromiseonSubmittedWorkDone())の解決は、 その呼び出し前に同じキューで排他的に使われたGPUBuffermapAsync() が完了していることを意味します。

呼び出し元: GPUBuffer this.

引数:

GPUBuffer.mapAsync(mode, offset, size)メソッドの引数。
パラメータ Nullable Optional 説明
mode GPUMapModeFlags バッファを読み取り/書き込みどちらでマップするか。
offset GPUSize64 マップ範囲の開始バイトオフセット。
size GPUSize64 マップする範囲のバイト数。

戻り値: Promise<undefined>

コンテンツタイムライン手順:

  1. contentTimelineを現在のコンテンツタイムラインとする。

  2. this.mapState"unmapped"でない場合:

    1. this.[[device]]デバイスタイムラインearly-reject stepsを発行する。

    2. PromiseをOperationErrorで拒否して返す。

  3. pを新しいPromiseとする。

  4. this.[[pending_map]]pを設定する。

  5. this.[[device]]デバイスタイムラインvalidation stepsを発行する。

  6. pを返す。

デバイスタイムライン early-reject steps:
  1. 検証エラーを生成する

  2. Return。

デバイスタイムライン validation steps:
  1. sizeundefinedの場合:

    1. rangeSizeにmax(0, this.size - offset)を設定。

    それ以外の場合:

    1. rangeSizesizeを設定。

  2. 以下の条件が満たされない場合:

    • this有効でなければならない。

    1. deviceLosttrueに設定。

    2. contentTimelinemap failure stepsを発行。

    3. Return。

  3. 以下の条件が満たされない場合:

    • this.[[internal state]] が"available"である。

    • offsetが8の倍数である。

    • rangeSizeが4の倍数である。

    • offset + rangeSizethis.size

    • modeGPUMapModeで定義されたビットのみを含む。

    • modeREADまたはWRITEのうち1つだけを含む。

    • modeREADを含む場合、this.usageMAP_READを含む必要がある。

    • modeWRITEを含む場合、this.usageMAP_WRITEを含む必要がある。

    それ以外の場合:

    1. deviceLostfalseに設定。

    2. contentTimelinemap failure stepsを発行。

    3. 検証エラーを生成する

    4. Return。

  4. this.[[internal state]] を"unavailable"に設定。

    注: バッファがマップされている間は、unmap()まで内容は変更されません。

  5. 次のいずれかのイベントが発生した時点(先に発生した方、またはすでに発生していれば):

    その後、this.[[device]]デバイスタイムラインで後続の手順を発行する。

デバイスタイムライン手順:
  1. this.[[device]]失われた場合はdeviceLosttrue、それ以外はfalseに設定。

    注: デバイス喪失は前ブロックとこの間でも起こり得ます。

  2. deviceLosttrueの場合:

    1. contentTimelinemap failure stepsを発行。

    それ以外の場合:

    1. internalStateAtCompletionthis.[[internal state]]とする。

      注: この時点でunmap()呼び出しでバッファが再び"available"になった場合、[[pending_map]]pと異なるため、以下のマッピングは成功しません。

    2. dataForMappedRegionthisoffsetからrangeSizeバイト分の内容を設定。

    3. contentTimelinemap success stepsを発行。

コンテンツタイムライン map success steps:
  1. this.[[pending_map]]pと異なる場合:

    注: unmap()によりマップがキャンセルされています。

    1. Assert pは拒否されている。

    2. Return。

  2. Assert pはpendingである。

  3. Assert internalStateAtCompletionは"unavailable"。

  4. mappingactive buffer mappingの初期化 (mode mode, range [offset, offset + rangeSize])で生成する。

    この割り当てに失敗した場合:

    1. this.[[pending_map]]nullにし、RangeErrorでpを拒否

    2. Return。

  5. mapping.dataの内容をdataForMappedRegionに設定する。

  6. this.[[mapping]]mappingを設定する。

  7. this.[[pending_map]]nullにし、pをresolveする。

コンテンツタイムライン map failure steps:
  1. this.[[pending_map]]pと異なる場合:

    注: unmap()によりマップがキャンセルされています。

    1. Assert pはすでに拒否されている。

    2. Return。

  2. Assert pはまだpendingである。

  3. this.[[pending_map]]nullに設定する。

  4. deviceLostがtrueの場合:

    1. pをAbortErrorで拒否

      注: unmap()でキャンセルされた場合も同じエラータイプです。

    それ以外の場合:

    1. pをOperationErrorで拒否

getMappedRange(offset, size)

指定したマップ範囲のArrayBufferを返します。内容はGPUBufferのものです。

呼び出し元: GPUBuffer this.

引数:

GPUBuffer.getMappedRange(offset, size)メソッドの引数。
パラメータ Nullable Optional 説明
offset GPUSize64 バッファ内容取得開始のバイトオフセット。
size GPUSize64 返すArrayBufferのバイトサイズ。

戻り値: ArrayBuffer

コンテンツタイムライン手順:

  1. sizeが指定されていなければ:

    1. rangeSizeをmax(0, this.size - offset)とする。

    指定されていればrangeSizesize

  2. 以下の条件が満たされない場合、OperationErrorを投げて終了:

    注: GPUBuffermappedAtCreation の場合、無効でも常にgetMappedRangeは有効です。現行標準タイムラインが無効性を認識できないためです。

  3. datathis.[[mapping]].dataとする。

  4. view! ArrayBufferの生成(サイズrangeSize、ポインタはdataの(offset - [[mapping]].range[0])バイト先を参照)とする。

    注: datamapAsync()createBuffer()ですでに割り当てられているため、ここでRangeErrorは投げられません。

  5. view.[[ArrayBufferDetachKey]]に"WebGPUBufferMapping"を設定する。

    注: TypeErrorは、unmap()以外でDetachArrayBufferしようとした場合に投げられる。

  6. viewthis.[[mapping]].viewsに追加する。

  7. viewを返す。

注: getMappedRange()でmapの状態確認なしに成功した場合、ユーザーエージェントは開発者向け警告を表示検討すべきです。mapAsync()の成功、mapState"mapped"、または後のonSubmittedWorkDone()成功を待つことで状態確認できる。

unmap()

マップされた範囲のアンマップを行い、内容をGPUで再び利用可能にします。

呼び出し元: GPUBuffer this.

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[pending_map]]nullでない場合:

    1. this.[[pending_map]]AbortErrorで拒否する。

    2. this.[[pending_map]]nullに設定

  2. this.[[mapping]]nullの場合:

    1. Return。

  3. ArrayBuffer abについて、this.[[mapping]].views内:

    1. DetachArrayBuffer(ab,"WebGPUBufferMapping")を実行

  4. bufferUpdatenullとする。

  5. this.[[mapping]].modeWRITEを含む場合:

    1. bufferUpdate = { data: this.[[mapping]].data, offset: this.[[mapping]].range[0] }とする。

    注: WRITEモードでない場合、アンマップ時にアプリケーションによるローカル変更は破棄され、後のマッピング内容には影響しない。

  6. this.[[mapping]]nullに設定

  7. 以降の手順をthis.[[device]]デバイスタイムラインで発行

デバイスタイムライン手順:
  1. 以下の条件が満たされない場合はreturn:

  2. Assert this.[[internal state]] は"unavailable"。

  3. bufferUpdatenullでなければ:

    1. this.[[device]].queueキュータイムラインで以下発行:

      キュータイムライン手順:
      1. thisbufferUpdate.offsetからbufferUpdate.dataで内容更新

  4. this.[[internal state]]を"available"に設定

6. テクスチャとテクスチャビュー

6.1. GPUTexture

テクスチャは、1d2d3d のデータ配列で構成され、各要素が複数の値を持つことで色などを表現できます。テクスチャは、作成時のGPUTextureUsage に応じて様々な方法で読み書きが可能です。例えば、レンダー/コンピュートパイプラインのシェーダからサンプリング・読み書きでき、レンダーパスの出力として書き込むこともできます。 内部的には、テクスチャは線形アクセスではなく多次元アクセスに最適化されたGPUメモリレイアウトで格納されていることが多いです。

1つのテクスチャは、1つ以上のテクスチャサブリソースから構成されます。 各サブリソースはミップマップレベルで一意に識別され、 2dテクスチャの場合のみ、配列レイヤー およびアスペクトでも識別されます。

テクスチャサブリソースサブリソースであり、それぞれが1つの利用スコープ内で異なる内部用途に利用できます。

ミップマップレベル内の各サブリソースは、 1つ下のレベルのリソースと比べて各空間次元で約半分のサイズです (論理ミップレベル別テクスチャ範囲参照)。 レベル0のサブリソースがテクスチャ本体の寸法となります。 より小さいレベルは通常、同じ画像の低解像度版の格納に用いられます。 GPUSamplerやWGSLは、 詳細度レベルの選択や補間を明示的または自動で行う仕組みを提供します。

"2d" テクスチャは配列レイヤーの配列になる場合があります。 各レイヤー内のサブリソースは他レイヤーの同じリソースと同サイズです。 2d以外のテクスチャでは全てのサブリソースの配列レイヤーインデックスは0です。

各サブリソースはアスペクトを持ちます。 カラーテクスチャはcolorのみです。 深度・ステンシルフォーマットのテクスチャは複数アスペクト(depthstencil)を持つ場合があり、 depthStencilAttachment"depth"バインディングなどで特殊な用途に使われます。

"3d" テクスチャは複数のスライス(各z値ごとの2次元画像)を持ちます。 スライスはサブリソースとは異なります。

[Exposed=(Window, Worker), SecureContext]
interface GPUTexture {
    GPUTextureView createView(optional GPUTextureViewDescriptor descriptor = {});

    undefined destroy();

    readonly attribute GPUIntegerCoordinateOut width;
    readonly attribute GPUIntegerCoordinateOut height;
    readonly attribute GPUIntegerCoordinateOut depthOrArrayLayers;
    readonly attribute GPUIntegerCoordinateOut mipLevelCount;
    readonly attribute GPUSize32Out sampleCount;
    readonly attribute GPUTextureDimension dimension;
    readonly attribute GPUTextureFormat format;
    readonly attribute GPUFlagsConstant usage;
};
GPUTexture includes GPUObjectBase;

GPUTexture には以下の不変プロパティがあります:

width, GPUIntegerCoordinateOut, 読み取り専用

このGPUTextureの幅。

height, GPUIntegerCoordinateOut, 読み取り専用

このGPUTextureの高さ。

depthOrArrayLayers, GPUIntegerCoordinateOut, 読み取り専用

このGPUTextureの深度またはレイヤー数。

mipLevelCount, GPUIntegerCoordinateOut, 読み取り専用

このGPUTextureのミップレベル数。

sampleCount, GPUSize32Out, 読み取り専用

このGPUTextureのサンプル数。

dimension, GPUTextureDimension, 読み取り専用

GPUTextureサブリソースごとのテクセルの次元。

format, GPUTextureFormat, 読み取り専用

このGPUTextureのフォーマット。

usage, GPUFlagsConstant, 読み取り専用

このGPUTextureで許可される用途。

[[viewFormats]], 型 sequence<GPUTextureFormat>

このGPUTextureに対して GPUTextureViewDescriptor.format として利用可能なGPUTextureFormatの集合。

GPUTexture には以下のデバイスタイムラインプロパティがあります:

[[destroyed]], 型 boolean, 初期値false

テクスチャが破棄された場合、いかなる操作にも利用できなくなり、基盤となるメモリも解放可能となります。

compute render extent(baseSize, mipLevel)

引数:

戻り値: GPUExtent3DDict

デバイスタイムライン手順:

  1. extentを新しいGPUExtent3DDict オブジェクトとする。

  2. extent.width にmax(1, baseSize.widthmipLevel)を設定。

  3. extent.height にmax(1, baseSize.heightmipLevel)を設定。

  4. extent.depthOrArrayLayers に1を設定。

  5. extentを返す。

論理ミップレベル別テクスチャ範囲とは、特定のミップレベルにおけるテクスチャのテクセル単位のサイズです。次の手順で算出されます:

Logical miplevel-specific texture extent(descriptor, mipLevel)

引数:

戻り値: GPUExtent3DDict

  1. extentを新しいGPUExtent3DDictオブジェクトとする。

  2. descriptor.dimension が次の場合:

    "1d"
    "2d"
    "3d"
  3. extentを返す。

物理ミップレベル別テクスチャ範囲とは、特定のミップレベルにおけるテクスチャのテクセル単位のサイズ(テクセルブロックを完全に構成するための余分なパディングを含む)です。次の手順で算出されます:

Physical miplevel-specific texture extent(descriptor, mipLevel)

引数:

戻り値: GPUExtent3DDict

  1. extentを新しいGPUExtent3DDictオブジェクトとする。

  2. logicalExtent論理ミップレベル別テクスチャ範囲(descriptor, mipLevel)を設定。

  3. descriptor.dimension が次の場合:

    "1d"
    "2d"
    "3d"
  4. extentを返す。

6.1.1. GPUTextureDescriptor

dictionary GPUTextureDescriptor
         : GPUObjectDescriptorBase {
    required GPUExtent3D size;
    GPUIntegerCoordinate mipLevelCount = 1;
    GPUSize32 sampleCount = 1;
    GPUTextureDimension dimension = "2d";
    required GPUTextureFormat format;
    required GPUTextureUsageFlags usage;
    sequence<GPUTextureFormat> viewFormats = [];
};

GPUTextureDescriptor には以下のメンバーがあります:

size, GPUExtent3D

テクスチャの幅・高さ・深度またはレイヤー数。

mipLevelCount, GPUIntegerCoordinate(デフォルト値1

このテクスチャが持つミップレベルの数。

sampleCount, GPUSize32(デフォルト値1

テクスチャのサンプル数。sampleCount > 1の場合はマルチサンプルテクスチャ。

dimension, GPUTextureDimension(デフォルト値"2d"

テクスチャが一次元か、二次元レイヤー配列か、三次元か。

format, GPUTextureFormat

テクスチャのフォーマット。

usage, GPUTextureUsageFlags

テクスチャの許可用途。

viewFormats, 型 sequence<GPUTextureFormat>(デフォルト値[]

このテクスチャでformat としてcreateView() を呼び出す際に許可される値(実際のformatを含む)。

注:
このリストにフォーマットを追加するとパフォーマンスに大きな影響が出る可能性があるため、不要な追加は避けてください。

実際の影響はシステム依存ですので、アプリケーションごとに様々なシステムで検証が必要です。 例えば、あるシステムではformatviewFormats"rgba8unorm-srgb" を入れると、"rgba8unorm" のテクスチャより最適でなくなる場合があります。他フォーマットや組み合わせでも同様の注意点があります。

このリストのフォーマットは、テクスチャのフォーマットとテクスチャビュー・フォーマット互換でなければなりません。

2つのGPUTextureFormat formatviewFormatは、以下の場合テクスチャビュー・フォーマット互換です:
  • formatviewFormatが等しい場合

  • formatviewFormatsrgb-srgbサフィックス)だけが異なる場合

enum GPUTextureDimension {
    "1d",
    "2d",
    "3d",
};
"1d"

一次元(幅のみ)のテクスチャ。"1d" テクスチャはミップマップ不可・マルチサンプル不可・圧縮/深度/ステンシル不可・レンダーターゲット不可です。

"2d"

幅・高さを持ち、レイヤーも持てるテクスチャ。

"3d"

幅・高さ・深度を持つテクスチャ。"3d" テクスチャはマルチサンプル不可・フォーマットは3d対応(プレーンカラーフォーマットや一部パック/圧縮フォーマット)のみ。

6.1.2. テクスチャ用途

typedef [EnforceRange] unsigned long GPUTextureUsageFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUTextureUsage {
    const GPUFlagsConstant COPY_SRC          = 0x01;
    const GPUFlagsConstant COPY_DST          = 0x02;
    const GPUFlagsConstant TEXTURE_BINDING   = 0x04;
    const GPUFlagsConstant STORAGE_BINDING   = 0x08;
    const GPUFlagsConstant RENDER_ATTACHMENT = 0x10;
};

GPUTextureUsage のフラグは、GPUTexture の作成後の用途を決定します:

COPY_SRC

コピー操作のソースとして利用可能(例:source引数としてcopyTextureToTexture()copyTextureToBuffer())。

COPY_DST

コピー・書き込み操作のデスティネーションとして利用可能(例:destination引数としてcopyTextureToTexture()copyBufferToTexture()writeTexture()のターゲット)。

TEXTURE_BINDING

シェーダでサンプル用テクスチャとしてバインド可能(例:GPUTextureBindingLayoutのバインドグループエントリ)。

STORAGE_BINDING

シェーダでストレージテクスチャとしてバインド可能(例:GPUStorageTextureBindingLayoutのバインドグループエントリ)。

RENDER_ATTACHMENT

レンダーパスのカラー/深度・ステンシルアタッチメントとして利用可能(例:GPURenderPassColorAttachment.viewGPURenderPassDepthStencilAttachment.view)。

maximum mipLevel count(dimension, size)

引数:

  1. 最大次元値mを計算:

  2. floor(log2(m)) + 1 を返す。

6.1.3. テクスチャの作成

createTexture(descriptor)

GPUTextureを作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createTexture(descriptor)メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUTextureDescriptor 作成するGPUTextureの説明。

戻り値: GPUTexture

コンテンツタイムライン手順:

  1. ? GPUExtent3D形状の検証(descriptor.size)。

  2. ? テクスチャフォーマット必要機能の検証descriptor.formatthis.[[device]])。

  3. ? 各viewFormats要素のテクスチャフォーマット必要機能の検証descriptor.viewFormatsthis.[[device]])。

  4. t! 新しいWebGPUオブジェクトの生成(this, GPUTexture, descriptor)とする。

  5. t.widthdescriptor.size.widthを設定。

  6. t.heightdescriptor.size.heightを設定。

  7. t.depthOrArrayLayersdescriptor.size.depthOrArrayLayersを設定。

  8. t.mipLevelCountdescriptor.mipLevelCountを設定。

  9. t.sampleCountdescriptor.sampleCountを設定。

  10. t.dimensiondescriptor.dimensionを設定。

  11. t.formatdescriptor.formatを設定。

  12. t.usagedescriptor.usageを設定。

  13. thisデバイスタイムラインinitialization stepsを発行。

  14. tを返す。

デバイスタイムライン initialization steps:
  1. 以下の条件が満たされない場合検証エラーの生成tの無効化、return。

  2. t.[[viewFormats]]descriptor.viewFormatsを設定。

  3. 各ブロックがゼロのビット表現と等価な等価テクセル表現になるよう、tのデバイス割り当てを作成。

    割り当てが副作用なしに失敗した場合、 メモリ不足エラー生成tの無効化、return。

GPUTextureDescriptorの検証(this, descriptor):

引数:

デバイスタイムライン手順:

  1. limitsthis.[[limits]]とする。

  2. 以下すべて満たせばtrue、そうでなければfalseを返す:

16x16、RGBA、2D、配列レイヤー1・ミップレベル1のテクスチャ生成例:
const texture = gpuDevice.createTexture({
    size: { width: 16, height: 16 },
    format: 'rgba8unorm',
    usage: GPUTextureUsage.TEXTURE_BINDING,
});

6.1.4. テクスチャの破棄

アプリケーションがGPUTexture を不要になった場合、 ガベージコレクション前にdestroy()を呼び出してアクセスを失わせることができます。

注: これにより、ユーザーエージェントはGPUTexture に関連付けられたGPUメモリを それまでに提出されたすべての操作が完了次第、回収できるようになります。

GPUTexture には次のメソッドがあります:

destroy()

GPUTextureを破棄します。

呼び出し元: GPUTexture this.

戻り値: undefined

現行標準タイムライン手順:

  1. 以降の手順をデバイスタイムラインで発行する。

デバイスタイムライン手順:
  1. this.[[destroyed]] をtrueに設定する。

6.2. GPUTextureView

GPUTextureView は、特定のGPUTextureが持つテクスチャサブリソースの部分集合へのビューです。

[Exposed=(Window, Worker), SecureContext]
interface GPUTextureView {
};
GPUTextureView includes GPUObjectBase;

GPUTextureView には以下の不変プロパティがあります:

[[texture]], readonly

このビューが参照するGPUTexture

[[descriptor]], readonly

このテクスチャビューを記述するGPUTextureViewDescriptor

GPUTextureViewDescriptorのすべてのオプションフィールドが定義済みです。

[[renderExtent]], readonly

レンダー可能ビューの場合、描画時の有効なGPUExtent3DDict

注: この範囲はbaseMipLevelに依存します。

テクスチャビューviewサブリソース集合は、 [[descriptor]] descを用いて、 view.[[texture]] のサブリソースのうち、各サブリソースsが以下を満たすものです:

2つのGPUTextureView オブジェクトは、そのサブリソース集合が交差する場合に限りテクスチャビュー・エイリアスとなります。

6.2.1. テクスチャビューの作成

dictionary GPUTextureViewDescriptor
         : GPUObjectDescriptorBase {
    GPUTextureFormat format;
    GPUTextureViewDimension dimension;
    GPUTextureUsageFlags usage = 0;
    GPUTextureAspect aspect = "all";
    GPUIntegerCoordinate baseMipLevel = 0;
    GPUIntegerCoordinate mipLevelCount;
    GPUIntegerCoordinate baseArrayLayer = 0;
    GPUIntegerCoordinate arrayLayerCount;

    // Requires "texture-component-swizzle" feature.
    DOMString swizzle = "rgba";
};

GPUTextureViewDescriptor には以下のメンバーがあります:

format, GPUTextureFormat

テクスチャビューのフォーマット。テクスチャ自体のformatか、 または作成時に指定したviewFormatsのいずれかでなければなりません。

dimension, GPUTextureViewDimension

テクスチャをどの次元でビューするか。

usage, GPUTextureUsageFlags(デフォルト値0

テクスチャビューの許可用途。テクスチャのusageフラグの部分集合でなければなりません。0の場合、テクスチャの全usageフラグをデフォルトとします。

注: ビューのformat がテクスチャの全usageに対応しない場合、デフォルトは失敗し、明示的にusage を指定する必要があります。

aspect, GPUTextureAspect(デフォルト値"all"

テクスチャビューからアクセス可能なaspect

baseMipLevel, GPUIntegerCoordinate(デフォルト値0

テクスチャビューからアクセス可能な最初(最詳細)のミップマップレベル。

mipLevelCount, GPUIntegerCoordinate

baseMipLevel から始まるミップマップレベル数。

baseArrayLayer, GPUIntegerCoordinate(デフォルト値0

テクスチャビューからアクセス可能な最初の配列レイヤーのインデックス。

arrayLayerCount, GPUIntegerCoordinate

baseArrayLayer から始まるアクセス可能な配列レイヤー数。

swizzle, 型は DOMString で、既定値は "rgba"

長さ4の文字列で、各文字はそれぞれテクスチャビューの赤/緑/青/アルファの各チャンネルに対応する。

シェーダからアクセスされた場合、赤/緑/青/アルファ各チャンネルは、それぞれ swizzle[0]swizzle[1]swizzle[2]swizzle[3] に指定された成分に対応する値で置き換えられる:

  • "r": テクスチャの赤チャンネルの値を使用する。

  • "g": テクスチャの緑チャンネルの値を使用する。

  • "b": テクスチャの青チャンネルの値を使用する。

  • "a": テクスチャのアルファチャンネルの値を使用する。

  • "0": 値を 0 に固定する。

  • "1": 値を 1 に固定する。

"texture-component-swizzle" 機能が有効である必要がある。

enum GPUTextureViewDimension {
    "1d",
    "2d",
    "2d-array",
    "cube",
    "cube-array",
    "3d",
};
"1d"

テクスチャを一次元画像としてビューします。

対応WGSL型:

  • texture_1d

  • texture_storage_1d

"2d"

テクスチャを単一の二次元画像としてビューします。

対応WGSL型:

  • texture_2d

  • texture_storage_2d

  • texture_multisampled_2d

  • texture_depth_2d

  • texture_depth_multisampled_2d

"2d-array"

テクスチャビューを二次元画像の配列としてビューします。

対応WGSL型:

  • texture_2d_array

  • texture_storage_2d_array

  • texture_depth_2d_array

"cube"

テクスチャをキューブマップとしてビューします。

ビューは6つの配列レイヤーを持ち、それぞれキューブの面([+X, -X, +Y, -Y, +Z, -Z])と以下の向きに対応します:

キューブマップ面。+U/+V軸は個々の面のテクスチャ座標、すなわち各面のテクセルコピーメモリレイアウトを示します。

注: 内側からビューした場合、+Xが右、+Yが上、+Zが前の左手座標系になります。

サンプリングはキューブマップの面をまたいでシームレスに行われます。

対応WGSL型:

  • texture_cube

  • texture_depth_cube

"cube-array"

テクスチャをn個のキューブマップのパック配列としてビューします。それぞれ6配列レイヤーで1つの"cube"ビューとして扱われ、合計で6n配列レイヤーとなります。

対応WGSL型:

  • texture_cube_array

  • texture_depth_cube_array

"3d"

テクスチャを三次元画像としてビューします。

対応WGSL型:

  • texture_3d

  • texture_storage_3d

GPUTextureAspect値はアスペクトの集合に対応します。 アスペクト集合は以下の各値ごとに定義されています。

enum GPUTextureAspect {
    "all",
    "stencil-only",
    "depth-only",
};
"all"

テクスチャフォーマットの利用可能な全アスペクトがテクスチャビューからアクセス可能になります。カラーフォーマットの場合colorアスペクトが、複合深度ステンシルフォーマットの場合はdepthとstencil両方が、単一アスペクトの深度・ステンシルフォーマットはそのアスペクトのみアクセス可能です。

アスペクト集合は[color, depth, stencil]です。

"stencil-only"

深度・ステンシルフォーマットのstencilアスペクトのみがテクスチャビューからアクセス可能です。

アスペクト集合は[stencil]です。

"depth-only"

深度・ステンシルフォーマットのdepthアスペクトのみがテクスチャビューからアクセス可能です。

アスペクト集合は[depth]です。

createView(descriptor)

GPUTextureViewを作成します。

注:
デフォルトではcreateView()は、 テクスチャ全体を表現できる次元でビューを作成します。例えば、createView()"2d"テクスチャ(レイヤー複数)に対して呼ぶと、 "2d-array" GPUTextureViewが作られます(たとえarrayLayerCountが1でも)。

レイヤー数が開発時に不明なソース由来テクスチャの場合は、createView() 呼び出し時に明示的なdimension を指定してシェーダ互換性を確保するのが推奨されます。

呼び出し元: GPUTexture this.

引数:

GPUTexture.createView(descriptor)メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUTextureViewDescriptor 作成するGPUTextureViewの説明。

戻り値: view(型GPUTextureView

現行標準タイムライン手順:

  1. ? テクスチャフォーマット必要機能の検証descriptor.formatthis.[[device]])。

  2. ? スウィズル文字列の検証descriptor.swizzle に対して行う。

  3. view! 新しいWebGPUオブジェクト生成this, GPUTextureView, descriptor)とする。

  4. thisデバイスタイムラインinitialization stepsを発行。

  5. viewを返す。

デバイスタイムライン initialization steps:
  1. descriptorGPUTextureViewDescriptor既定値の解決this, descriptor)の結果を設定。

  2. 以下の条件が満たされない場合検証エラー生成viewの無効化、return。

  3. viewを新しいGPUTextureViewオブジェクトとする。

  4. view.[[texture]]thisを設定。

  5. view.[[descriptor]]descriptorを設定。

  6. もしdescriptor.usageRENDER_ATTACHMENTが含まれる場合:

    1. renderExtentcompute render extent([this.width, this.height, this.depthOrArrayLayers], descriptor.baseMipLevel)を設定。

    2. view.[[renderExtent]]renderExtentを設定。

GPUTextureViewDescriptor のデフォルト解決GPUTextureView textureGPUTextureViewDescriptor descriptor に対して行う場合、以下のデバイスタイムライン手順を実行する:
  1. resolveddescriptor のコピーを代入する。

  2. resolved.format指定されていない場合:

    1. formatGPUTextureAspect の解決( format, descriptor.aspect) の結果を代入する。

    2. formatnull の場合:

      それ以外の場合:

      • resolved.formatformat を設定する。

  3. resolved.mipLevelCount指定されていない場合: resolved.mipLevelCounttexture.mipLevelCountresolved.baseMipLevel を設定する。

  4. resolved.dimension指定されていない かつ texture.dimension が以下のいずれかの場合:

    "1d"

    resolved.dimension"1d" を設定する。

    "2d"

    array layer counttexture で 1 の場合:

    それ以外の場合:

    "3d"

    resolved.dimension"3d" を設定する。

  5. resolved.arrayLayerCount指定されていない かつ resolved.dimension が以下の場合:

    "1d", "2d", または "3d"

    resolved.arrayLayerCount1 を設定する。

    "cube"

    resolved.arrayLayerCount6 を設定する。

    "2d-array" または "cube-array"

    resolved.arrayLayerCountarray layer count(texture) − resolved.baseArrayLayer を設定する。

  6. resolved.usage0 の場合: resolved.usagetexture.usage を設定する。

  7. resolved を返す。

GPUTexture texture配列レイヤー数を決定する場合、以下の手順:
  1. texture.dimension が:

    "1d" または"3d"

    1を返す。

    "2d"

    texture.depthOrArrayLayersを返す。

スウィズル文字列の検証DOMString swizzle に対して行うには、 以下の content timeline の手順を実行する:
  1. swizzle[ECMAScript] の正規表現 ^[rgba01]{4}$ に一致しない場合:

    1. TypeError を投げる。

6.3. テクスチャフォーマット

フォーマット名は、コンポーネントの順序、各コンポーネントのビット数、コンポーネントのデータ型を指定します。

フォーマットに-srgbサフィックスが付いている場合、シェーダ内で色値の読み書き時にsRGB変換(ガンマ⇔リニア)が適用されます。圧縮テクスチャフォーマットはfeaturesによって提供されます。命名規則は本規約に従い、テクスチャ名をプレフィックスとして使用します(例:etc2-rgba8unorm)。

テクセルブロックは、画素ベースのGPUTextureFormatテクスチャでは単一のアドレス可能な要素、 ブロックベース圧縮GPUTextureFormatテクスチャでは単一の圧縮ブロックです。

テクセルブロック幅およびテクセルブロック高さは、1つのテクセルブロックの寸法を指定します。

テクセルブロックコピーフットプリントは、あるGPUTextureFormatアスペクトについて、 テクセルコピー時に1つのテクセルブロックが占有するバイト数です(該当する場合)。

注: テクセルブロックメモリコストは、GPUTextureFormatの1つのテクセルブロックを格納するのに必要なバイト数です。全てのフォーマットで厳密には定義されていません。 この値は参考情報であり、規定値ではありません。

enum GPUTextureFormat {
    // 8-bit formats
    "r8unorm",
    "r8snorm",
    "r8uint",
    "r8sint",

    // 16-bit formats
    "r16unorm",
    "r16snorm",
    "r16uint",
    "r16sint",
    "r16float",
    "rg8unorm",
    "rg8snorm",
    "rg8uint",
    "rg8sint",

    // 32-bit formats
    "r32uint",
    "r32sint",
    "r32float",
    "rg16unorm",
    "rg16snorm",
    "rg16uint",
    "rg16sint",
    "rg16float",
    "rgba8unorm",
    "rgba8unorm-srgb",
    "rgba8snorm",
    "rgba8uint",
    "rgba8sint",
    "bgra8unorm",
    "bgra8unorm-srgb",
    // Packed 32-bit formats
    "rgb9e5ufloat",
    "rgb10a2uint",
    "rgb10a2unorm",
    "rg11b10ufloat",

    // 64-bit formats
    "rg32uint",
    "rg32sint",
    "rg32float",
    "rgba16unorm",
    "rgba16snorm",
    "rgba16uint",
    "rgba16sint",
    "rgba16float",

    // 128-bit formats
    "rgba32uint",
    "rgba32sint",
    "rgba32float",

    // Depth/stencil formats
    "stencil8",
    "depth16unorm",
    "depth24plus",
    "depth24plus-stencil8",
    "depth32float",

    // "depth32float-stencil8" feature
    "depth32float-stencil8",

    // BC compressed formats usable if "texture-compression-bc" is both
    // supported by the device/user agent and enabled in requestDevice.
    "bc1-rgba-unorm",
    "bc1-rgba-unorm-srgb",
    "bc2-rgba-unorm",
    "bc2-rgba-unorm-srgb",
    "bc3-rgba-unorm",
    "bc3-rgba-unorm-srgb",
    "bc4-r-unorm",
    "bc4-r-snorm",
    "bc5-rg-unorm",
    "bc5-rg-snorm",
    "bc6h-rgb-ufloat",
    "bc6h-rgb-float",
    "bc7-rgba-unorm",
    "bc7-rgba-unorm-srgb",

    // ETC2 compressed formats usable if "texture-compression-etc2" is both
    // supported by the device/user agent and enabled in requestDevice.
    "etc2-rgb8unorm",
    "etc2-rgb8unorm-srgb",
    "etc2-rgb8a1unorm",
    "etc2-rgb8a1unorm-srgb",
    "etc2-rgba8unorm",
    "etc2-rgba8unorm-srgb",
    "eac-r11unorm",
    "eac-r11snorm",
    "eac-rg11unorm",
    "eac-rg11snorm",

    // ASTC compressed formats usable if "texture-compression-astc" is both
    // supported by the device/user agent and enabled in requestDevice.
    "astc-4x4-unorm",
    "astc-4x4-unorm-srgb",
    "astc-5x4-unorm",
    "astc-5x4-unorm-srgb",
    "astc-5x5-unorm",
    "astc-5x5-unorm-srgb",
    "astc-6x5-unorm",
    "astc-6x5-unorm-srgb",
    "astc-6x6-unorm",
    "astc-6x6-unorm-srgb",
    "astc-8x5-unorm",
    "astc-8x5-unorm-srgb",
    "astc-8x6-unorm",
    "astc-8x6-unorm-srgb",
    "astc-8x8-unorm",
    "astc-8x8-unorm-srgb",
    "astc-10x5-unorm",
    "astc-10x5-unorm-srgb",
    "astc-10x6-unorm",
    "astc-10x6-unorm-srgb",
    "astc-10x8-unorm",
    "astc-10x8-unorm-srgb",
    "astc-10x10-unorm",
    "astc-10x10-unorm-srgb",
    "astc-12x10-unorm",
    "astc-12x10-unorm-srgb",
    "astc-12x12-unorm",
    "astc-12x12-unorm-srgb",
};

"depth24plus" および"depth24plus-stencil8" フォーマットのdepth成分は、24ビットdepth値または"depth32float" 値として実装される場合があります。

stencil8 フォーマットは実際の"stencil8"、または"depth24stencil8"(depthアスペクトは非表示・アクセス不可)として実装される場合があります。

注:
depth32floatチャンネルの精度はすべての値において24ビットdepthチャンネルより高いですが、 表現可能な値集合は完全なスーパーセットではないことに注意してください。

フォーマットがレンダー可能であるとは、カラー・レンダー可能フォーマットまたは深度・ステンシルフォーマットの場合です。 § 26.1.1 プレーンカラーフォーマットRENDER_ATTACHMENT 機能を持つものはカラー・レンダー可能フォーマットです。他はカラー・レンダー可能フォーマットではありません。 深度・ステンシルフォーマットはすべてレンダー可能です。

レンダー可能フォーマットは、レンダーパイプラインのブレンディングで使用可能な場合ブレンド可能にもなります。 § 26.1 テクスチャフォーマットの機能参照。

フォーマットがフィルタ可能であるとは、 GPUTextureSampleType "float""unfilterable-float"のみでない)をサポートし、 "filtering" GPUSamplerで利用可能な場合です。 § 26.1 テクスチャフォーマットの機能参照。

GPUTextureAspectの解決(format, aspect)

引数:

戻り値: GPUTextureFormat またはnull

  1. aspectが:

    "all"

    formatを返す。

    "depth-only"
    "stencil-only"

    formatがdepth-stencil-formatの場合: formatアスペクト専用フォーマット§ 26.1.2 深度ステンシルフォーマット)または aspectが存在しなければnullを返す。

  2. nullを返す。

一部のテクスチャフォーマットの使用にはGPUDeviceでfeatureを有効化する必要があります。 新フォーマットは仕様に追加される場合があるため、enum値が実装で未知な場合もあります。 実装間の挙動を揃えるため、featureが有効でない場合にフォーマットを使おうとすると例外が投げられます(未対応フォーマット時と同じ挙動)。

§ 26.1 テクスチャフォーマットの機能で、どのGPUTextureFormatがfeature必須か確認できます。

To テクスチャフォーマットの必要な機能を検証するGPUTextureFormat format に対して
論理 device device を用いて、以下の content timeline の手順を実行する:
  1. formatがfeature必須で、device.[[features]] がfeatureを含まない場合:

    1. TypeErrorを投げる。

6.4. GPUExternalTexture

GPUExternalTexture は外部動画フレームをラップするサンプル可能な2Dテクスチャです。 不変のスナップショットであり、その内容はWebGPU内外(動画フレームの進行など)で変化しません。

GPUExternalTextureexternalTexture バインドグループレイアウトエントリメンバーでバインド可能です。 このメンバーは複数のバインディングスロットを使用します(詳細はそちら参照)。

注:
GPUExternalTexture はインポート元のコピーなしで実装できる場合もありますが、 実装依存です。 基盤表現の所有権は排他または他オーナー(動画デコーダ等)との共有の場合もあり、アプリケーションからは不可視です。

外部テクスチャの基盤表現は(正確なサンプリング挙動以外)観測不可ですが、一般的には次が含まれます:

実装内部の構成は時期・システム・UA・メディアソース・同一動画内フレーム間でも一貫しない場合があります。 多様な表現に対応するため、各外部テクスチャで以下を保守的にバインディングします:

[Exposed=(Window, Worker), SecureContext]
interface GPUExternalTexture {
};
GPUExternalTexture includes GPUObjectBase;

GPUExternalTexture には以下の不変プロパティがあります:

[[descriptor]], 型 GPUExternalTextureDescriptor, 読み取り専用

このテクスチャ作成時のディスクリプタ。

GPUExternalTexture には以下の不変プロパティがあります:

[[expired]], 型boolean、初期値false

オブジェクトが期限切れ(利用不可)かどうか。

注: [[destroyed]]スロットと似ているが、こちらはtrueからfalseに戻る場合もある。

6.4.1. 外部テクスチャのインポート

外部テクスチャは外部動画オブジェクトからimportExternalTexture() を用いて作成します。

HTMLVideoElement から作成された外部テクスチャは、他のリソースのように手動やガベージコレクションではなく、インポート後にタスク内で自動的に期限切れ(破棄)となります。 外部テクスチャが期限切れになると、その[[expired]] スロットがtrueに変わります。

VideoFrame から作成された外部テクスチャは、元のVideoFrameclose(明示的にclose()呼び出し、または他の手段)された時のみ期限切れ(破棄)となります。

注:decode() でも述べられている通り、著者はデコーダの停止を防ぐため、出力VideoFrameclose()推奨します。 インポート後のVideoFrame がcloseされずに破棄された場合、インポート済みGPUExternalTexture オブジェクトが生きている限り、VideoFrameも生き続けます。 両方とも破棄されるまでVideoFrameはガベージコレクトされません。 ガベージコレクションは予測できないため、これでもビデオデコーダが停止する可能性があります。

GPUExternalTexture が期限切れになると、importExternalTexture() を再度呼び出す必要があります。 ただし、ユーザーエージェントは期限切れを解除し、同じGPUExternalTexture を返す場合があります(新しいものを生成しない)。これは、アプリケーションの実行が動画フレームレート(例:requestVideoFrameCallback()使用)と一致しない限り、一般的に起こります。 同じオブジェクトが再び返された場合、比較は等しくなり、以前のオブジェクトを参照しているGPUBindGroupGPURenderBundleなどは引き続き使用可能です。

dictionary GPUExternalTextureDescriptor
         : GPUObjectDescriptorBase {
    required (HTMLVideoElement or VideoFrame) source;
    PredefinedColorSpace colorSpace = "srgb";
};

GPUExternalTextureDescriptor 辞書には以下のメンバーがあります:

source, (HTMLVideoElement or VideoFrame)

外部テクスチャをインポートする動画ソース。ソースサイズは外部ソース寸法表に従って決定されます。

colorSpace, PredefinedColorSpace(デフォルト値"srgb"

source の画像内容を読み込み時に変換する色空間。

importExternalTexture(descriptor)

指定した画像ソースをラップしたGPUExternalTextureを作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.importExternalTexture(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUExternalTextureDescriptor 外部画像ソースオブジェクト(および作成オプション)を指定。

戻り値: GPUExternalTexture

現行標準タイムライン手順:

  1. sourcedescriptor.sourceとする。

  2. 現在のsource画像内容が、同じdescriptorlabel除く)で以前に呼び出された importExternalTexture() と同じであり、UAが再利用を選択した場合:

    1. previousResultを以前返されたGPUExternalTextureとする。

    2. previousResult.[[expired]]falseにし、基盤リソースの所有権を更新する。

    3. resultpreviousResultとする。

    注: これにより、アプリケーションが重複インポートを検出し、依存オブジェクト(GPUBindGroupなど)を再生成せずに済みます。 実装は、1つのフレームが複数GPUExternalTextureでラップされるケースにも対応する必要があります(インポートメタデータcolorSpaceは同一フレームでも変更可能)。

    それ以外の場合:

    1. sourceorigin-cleanでない場合、 SecurityErrorを投げてreturn。

    2. usability? 画像引数の利用性の確認(source)とする。

    3. usabilitygoodでない場合:

      1. 検証エラー生成

      2. 無効化された GPUExternalTextureを返す。

    4. dataを、現在のsource画像内容をdescriptor.colorSpace へ非プリマルチアルファで変換した結果とする。

      この変換で[0, 1]範囲外の値になる場合があります。クランプが必要ならサンプリング後に行えます。

      注: コピーのように記述されていますが、実際は読み取り専用の基盤データと変換用メタデータへの参照として実装可能です。

    5. resultdataをラップした新しいGPUExternalTextureオブジェクトとする。

  3. sourceHTMLVideoElementの場合、 自動期限切れタスクをキュー(device this、次の手順):

    1. result.[[expired]]trueにし、基盤リソースの所有権を解放する。

    注: HTMLVideoElement はテクスチャをサンプリングする同じタスクでインポートすること(通常requestVideoFrameCallbackrequestAnimationFrame()を使う)。 そうしないと、アプリケーションが使い終わる前にこれらの手順でテクスチャが破棄される可能性があります。

  4. sourceVideoFrameの場合、 sourcecloseされた時、次の手順を実行:

    1. result.[[expired]]trueにする。

  5. result.labeldescriptor.labelを設定。

  6. resultを返す。

ページアニメーションフレームレートでvideo要素外部テクスチャを用いて描画する例:
const videoElement = document.createElement('video');
// ... videoElementのセットアップ、ready待ち ...

function frame() {
    requestAnimationFrame(frame);

    // 毎アニメーションフレームで必ず再インポート。importは期限切れの可能性が高い。
    // ブラウザは過去フレームをキャッシュ・再利用する場合があり、その際
    // 同じGPUExternalTextureオブジェクトを再び返すことがある。
    // この場合、古いバインドグループも有効。
    const externalTexture = gpuDevice.importExternalTexture({
        source: videoElement
    });

    // ... externalTextureで描画 ...
}
requestAnimationFrame(frame);
requestVideoFrameCallbackが使える場合、動画のフレームレートでvideo要素外部テクスチャを用いて描画する例:
const videoElement = document.createElement('video');
// ... videoElementのセットアップ ...

function frame() {
    videoElement.requestVideoFrameCallback(frame);

    // フレーム進行が確実なため、毎回再インポート
    const externalTexture = gpuDevice.importExternalTexture({
        source: videoElement
    });

    // ... externalTextureで描画 ...
}
videoElement.requestVideoFrameCallback(frame);

6.5. 外部テクスチャバインディングのサンプリング

externalTexture バインディングポイントは、GPUExternalTexture オブジェクト(動画など動的画像ソース)をバインドできます。また、GPUTextureGPUTextureViewにも対応しています。

注: GPUTextureGPUTextureViewexternalTextureバインディングにバインドした場合、 RGBA単一プレーン・クロップ/回転/色変換なしのGPUExternalTexture と同じ扱いになります。

外部テクスチャはWGSLではtexture_externalで表され、textureLoadtextureSampleBaseClampToEdgeで読み取れます。

textureSampleBaseClampToEdgeに渡すsamplerは基盤テクスチャのサンプリングに使われます。

バインディングリソース型GPUExternalTextureの場合、 結果はcolorSpaceで指定された色空間となります。 実装依存で、サンプラー(およびフィルタリング)が基底値から指定色空間への変換の前後どちらで適用されるかは異なります。

注: 内部表現がRGBAプレーンの場合、サンプリングは通常の2Dテクスチャと同様です。 複数プレーン(例:Y+UV)の場合、サンプラーは各基盤テクスチャを個別にサンプリングし、YUV→指定色空間変換前に適用されます。

7. サンプラー

7.1. GPUSampler

GPUSampler はシェーダでテクスチャリソースデータを解釈するための変換・フィルタ情報を符号化します。

GPUSamplercreateSampler() で作成されます。

[Exposed=(Window, Worker), SecureContext]
interface GPUSampler {
};
GPUSampler includes GPUObjectBase;

GPUSampler には以下の不変プロパティがあります:

[[descriptor]], 型 GPUSamplerDescriptor、読み取り専用

このGPUSampler の作成時に使用したGPUSamplerDescriptor

[[isComparison]], 型 boolean、読み取り専用

このGPUSampler が比較サンプラーとして利用されるかどうか。

[[isFiltering]], 型 boolean、読み取り専用

このGPUSampler がテクスチャの複数サンプルを重み付けするかどうか。

7.1.1. GPUSamplerDescriptor

GPUSamplerDescriptorGPUSampler の作成時オプションを指定します。

dictionary GPUSamplerDescriptor
         : GPUObjectDescriptorBase {
    GPUAddressMode addressModeU = "clamp-to-edge";
    GPUAddressMode addressModeV = "clamp-to-edge";
    GPUAddressMode addressModeW = "clamp-to-edge";
    GPUFilterMode magFilter = "nearest";
    GPUFilterMode minFilter = "nearest";
    GPUMipmapFilterMode mipmapFilter = "nearest";
    float lodMinClamp = 0;
    float lodMaxClamp = 32;
    GPUCompareFunction compare;
    [Clamp] unsigned short maxAnisotropy = 1;
};
addressModeU, GPUAddressMode(デフォルト値"clamp-to-edge"
addressModeV, GPUAddressMode(デフォルト値"clamp-to-edge"
addressModeW, GPUAddressMode(デフォルト値"clamp-to-edge"

テクスチャの幅・高さ・深度座標それぞれのアドレスモード指定。

magFilter, GPUFilterMode(デフォルト値"nearest"

サンプリング領域が1テクセル以下のときのサンプリング動作。

minFilter, GPUFilterMode(デフォルト値"nearest"

サンプリング領域が1テクセルより大きいときのサンプリング動作。

mipmapFilter, GPUMipmapFilterMode(デフォルト値"nearest"

ミップマップレベル間のサンプリング動作。

lodMinClamp, float(デフォルト値0
lodMaxClamp, float(デフォルト値32

テクスチャサンプリング時に内部的に使われる最小・最大レベルオブディテール

compare, GPUCompareFunction

指定した場合、サンプラーは指定GPUCompareFunctionで比較サンプラーになります。

注: 比較サンプラーはフィルタリング使用可能ですが、結果は実装依存・通常のフィルタリングルールと異なる場合があります。

maxAnisotropy, unsigned short(デフォルト値1

サンプラーで使われる最大異方性値クランプ指定。maxAnisotropy > 1かつ実装が対応している場合、異方性フィルタリング有効。

異方性フィルタリングは斜め視点テクスチャの画質向上。maxAnisotropy 値が高いほどフィルタリング時の最大異方性比。

注:
多くの実装はmaxAnisotropy を1~16の範囲でサポート。指定値はプラットフォーム最大値にクランプされます。

フィルタリングの具体的挙動は実装依存。

レベルオブディテール(LOD)はテクスチャサンプリング時に選択されるミップレベルを示します。シェーダのtextureSampleLevel等で明示指定、またはテクスチャ座標の微分から暗黙決定されます。

注: 暗黙LOD計算例はScale Factor Operation, LOD Operation and Image Level SelectionVulkan 1.3仕様)参照。

GPUAddressMode はサンプリングテクセルがテクスチャ範囲外のときのサンプラー動作指定。

enum GPUAddressMode {
    "clamp-to-edge",
    "repeat",
    "mirror-repeat",
};
"clamp-to-edge"

テクスチャ座標は0.0~1.0の範囲にクランプ。

"repeat"

テクスチャ座標はテクスチャの反対側へラップ。

"mirror-repeat"

テクスチャ座標は反対側へラップしつつ、座標の整数部が奇数のときテクスチャを反転。

GPUFilterMode およびGPUMipmapFilterMode はサンプリング領域が1テクセルちょうどでない場合のサンプラー動作指定。

注: 各種フィルターモードでどのテクセルがサンプルされるかの例はTexel FilteringVulkan 1.3仕様)参照。

enum GPUFilterMode {
    "nearest",
    "linear",
};

enum GPUMipmapFilterMode {
    "nearest",
    "linear",
};
"nearest"

テクスチャ座標に最も近いテクセルの値を返す。

"linear"

各次元で2テクセル選び、その値を線形補間して返す。

GPUCompareFunction は比較サンプラーの挙動指定。シェーダで比較サンプラー使用時、depth_refと取得テクセル値を比較し、その判定結果(合格1.0f/不合格0.0f)を生成。

比較後、テクスチャフィルタリング有効ならフィルタリングが行われ、判定結果同士が混合され[0, 1]範囲の値となる。フィルタリングは通常通り動作すべきだが、精度低下や混合なしの可能性もある。

enum GPUCompareFunction {
    "never",
    "less",
    "equal",
    "less-equal",
    "greater",
    "not-equal",
    "greater-equal",
    "always",
};
"never"

比較判定は常に不合格。

"less"

与えられた値がサンプル値より小さい場合に合格。

"equal"

与えられた値がサンプル値と等しい場合に合格。

"less-equal"

与えられた値がサンプル値以下の場合に合格。

"greater"

与えられた値がサンプル値より大きい場合に合格。

"not-equal"

与えられた値がサンプル値と異なる場合に合格。

"greater-equal"

与えられた値がサンプル値以上の場合に合格。

"always"

比較判定は常に合格。

7.1.2. サンプラーの作成

createSampler(descriptor)

GPUSamplerを作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createSampler(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUSamplerDescriptor 作成するGPUSamplerの説明。

戻り値: GPUSampler

現行標準タイムライン手順:

  1. s! 新しいWebGPUオブジェクトの生成(this, GPUSampler, descriptor)とする。

  2. thisデバイスタイムラインinitialization stepsを発行。

  3. sを返す。

デバイスタイムライン initialization steps:
  1. 以下の条件が満たされない場合検証エラー生成sの無効化、return。

  2. s.[[descriptor]]descriptorを設定。

  3. s.[[isComparison]] を、s.[[descriptor]]compare 属性がnullまたは未定義ならfalse、それ以外ならtrueに設定。

  4. s.[[isFiltering]] を、minFiltermagFiltermipmapFilter のいずれも "linear"でなければfalse、いずれかが"linear"ならtrueに設定。

テクスチャ座標繰り返し&三線形フィルタのGPUSampler生成例:
const sampler = gpuDevice.createSampler({
    addressModeU: 'repeat',
    addressModeV: 'repeat',
    magFilter: 'linear',
    minFilter: 'linear',
    mipmapFilter: 'linear',
});

8. リソースバインディング

8.1. GPUBindGroupLayout

GPUBindGroupLayout は、GPUBindGroup でバインドされたリソース群と、シェーダステージでのアクセス性とのインターフェースを定義します。

[Exposed=(Window, Worker), SecureContext]
interface GPUBindGroupLayout {
};
GPUBindGroupLayout includes GPUObjectBase;

GPUBindGroupLayout には以下の不変プロパティがあります:

[[descriptor]], 型 GPUBindGroupLayoutDescriptor、読み取り専用

8.1.1. バインドグループレイアウトの作成

GPUBindGroupLayoutGPUDevice.createBindGroupLayout()で作成します。

dictionary GPUBindGroupLayoutDescriptor
         : GPUObjectDescriptorBase {
    required sequence<GPUBindGroupLayoutEntry> entries;
};

GPUBindGroupLayoutDescriptor 辞書には以下のメンバーがあります:

entries, 型 sequence<GPUBindGroupLayoutEntry>

バインドグループのシェーダリソースバインディングを記述するエントリのリスト。

GPUBindGroupLayoutEntry は、GPUBindGroupLayoutに含める1つのシェーダリソースバインディングを記述します。

dictionary GPUBindGroupLayoutEntry {
    required GPUIndex32 binding;
    required GPUShaderStageFlags visibility;

    GPUBufferBindingLayout buffer;
    GPUSamplerBindingLayout sampler;
    GPUTextureBindingLayout texture;
    GPUStorageTextureBindingLayout storageTexture;
    GPUExternalTextureBindingLayout externalTexture;
};

GPUBindGroupLayoutEntry 辞書には以下のメンバーがあります:

binding, GPUIndex32

GPUBindGroupLayout内でリソースバインディングを一意に識別するID。 GPUBindGroupEntry.binding およびGPUShaderModule@binding属性に対応。

visibility, GPUShaderStageFlags

GPUShaderStageメンバーのビットセット。 各ビットが立っていると、GPUBindGroupLayoutEntryのリソースが対応シェーダステージからアクセス可能。

buffer, GPUBufferBindingLayout
sampler, GPUSamplerBindingLayout
texture, GPUTextureBindingLayout
storageTexture, GPUStorageTextureBindingLayout
externalTexture, GPUExternalTextureBindingLayout

これらのうち正確に1つだけ設定し、バインディング型を示します。 各メンバーの内容はその型固有のオプションを指定します。

createBindGroup()の対応リソースは、このバインディングのバインディングリソース型に従う必要があります。

typedef [EnforceRange] unsigned long GPUShaderStageFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUShaderStage {
    const GPUFlagsConstant VERTEX   = 0x1;
    const GPUFlagsConstant FRAGMENT = 0x2;
    const GPUFlagsConstant COMPUTE  = 0x4;
};

GPUShaderStage には以下のフラグが含まれ、これにより該当GPUBindGroupEntry がこのGPUBindGroupLayoutEntry に対してどのシェーダーステージから可視かを示します:

VERTEX

バインドグループエントリは頂点シェーダーからアクセス可能。

FRAGMENT

バインドグループエントリはフラグメントシェーダーからアクセス可能。

COMPUTE

バインドグループエントリは計算シェーダーからアクセス可能。

GPUBindGroupLayoutEntrybinding memberは、 どのGPUBindGroupLayoutEntry メンバーが定義されているかによって決まります: buffersamplertexturestorageTexture、 または externalTexture。 いずれか1つだけがGPUBindGroupLayoutEntry で定義可能です。 各メンバーには対応するGPUBindingResource型があり、 各バインディング型には対応する内部用途があります。以下の表参照:

バインディングメンバー リソース型 バインディング型
バインディング用途
buffer GPUBufferBinding
(または GPUBuffer 略記として)
"uniform" constant
"storage" storage
"read-only-storage" storage-read
sampler GPUSampler "filtering" constant
"non-filtering"
"comparison"
texture GPUTextureView
(または GPUTexture 略記として)
"float" constant
"unfilterable-float"
"depth"
"sint"
"uint"
storageTexture GPUTextureView
(または GPUTexture 略記として)
"write-only" storage
"read-write"
"read-only" storage-read
externalTexture GPUExternalTexture
または GPUTextureView
(または GPUTexture 略記として)
constant
list型のGPUBindGroupLayoutEntryentriesバインディングスロット制限超過となるのは、supported limitslimitsにおいて、制限値を超えてスロット数が使用された場合です。 各エントリは複数の制限に対して複数スロットを使用する場合があります。

デバイスタイムライン手順:

  1. entries内の各entryについて、次の場合:

    entry.buffer?.type"uniform" かつ entry.buffer?.hasDynamicOffsettrueの場合

    maxDynamicUniformBuffersPerPipelineLayout スロットを1個使用したとみなす。

    entry.buffer?.type"storage" かつ entry.buffer?.hasDynamicOffsettrueの場合

    maxDynamicStorageBuffersPerPipelineLayout スロットを1個使用したとみなす。

  2. 各シェーダーステージstage( « VERTEX, FRAGMENT, COMPUTE »)について:

    1. stageを含むentry.visibility の各entryについて、以下の場合:

      entry.buffer?.type"uniform"の場合

      maxUniformBuffersPerShaderStage スロットを1個使用したとみなす。

      entry.buffer?.type"storage" または"read-only-storage"の場合

      maxStorageBuffersPerShaderStage スロットを1個使用したとみなす。

      entry.sampler存在する場合

      maxSamplersPerShaderStage スロットを1個使用したとみなす。

      entry.texture存在する場合

      maxSampledTexturesPerShaderStage スロットを1個使用したとみなす。

      entry.storageTexture存在する場合

      maxStorageTexturesPerShaderStage スロットを1個使用したとみなす。

      entry.externalTexture存在する場合

      maxSampledTexturesPerShaderStageスロット4個、 maxSamplersPerShaderStageスロット1個、 maxUniformBuffersPerShaderStageスロット1個 を使用したとみなす。

      注: この挙動の説明はGPUExternalTexture を参照。

enum GPUBufferBindingType {
    "uniform",
    "storage",
    "read-only-storage",
};

dictionary GPUBufferBindingLayout {
    GPUBufferBindingType type = "uniform";
    boolean hasDynamicOffset = false;
    GPUSize64 minBindingSize = 0;
};

GPUBufferBindingLayout 辞書には以下のメンバーがあります:

type, GPUBufferBindingType(デフォルト値"uniform"

このバインディングにバインドされるバッファに要求される型を示します。

hasDynamicOffset, boolean(デフォルト値false

このバインディングが動的オフセットを要求するかどうかを示します。

minBindingSize, GPUSize64(デフォルト値0

このバインドポイントで使用されるバッファバインディングの最小sizeを示します。

バインディングは常にこのサイズに対してcreateBindGroup()内で検証されます。

この値が0でない場合、パイプライン作成時にさらに、変数の最小バッファバインディングサイズ以上であることが検証されます。

この値が0の場合、パイプライン作成時には無視され、代わりに描画/ディスパッチコマンドがGPUBindGroup内の各バインディングが変数の最小バッファバインディングサイズを満たすか検証します。

注: 実行時検証は、sampleTypeformatのような他の早期検証項目にも理論上可能ですが、現状ではパイプライン作成時のみ検証されます。 ただし実行時検証はコスト・複雑性の増加につながるため、最も利便性に影響するminBindingSizeにのみ導入されています。

enum GPUSamplerBindingType {
    "filtering",
    "non-filtering",
    "comparison",
};

dictionary GPUSamplerBindingLayout {
    GPUSamplerBindingType type = "filtering";
};

GPUSamplerBindingLayout 辞書には以下のメンバーがあります:

type, GPUSamplerBindingType(デフォルト値"filtering"

このバインディングにバインドされるサンプラーに要求される型を示します。

enum GPUTextureSampleType {
    "float",
    "unfilterable-float",
    "depth",
    "sint",
    "uint",
};

dictionary GPUTextureBindingLayout {
    GPUTextureSampleType sampleType = "float";
    GPUTextureViewDimension viewDimension = "2d";
    boolean multisampled = false;
};

GPUTextureBindingLayout 辞書には以下のメンバーがあります:

sampleType, GPUTextureSampleType(デフォルト値"float"

このバインディングにバインドされるテクスチャビューに要求される型を示します。

viewDimension, GPUTextureViewDimension(デフォルト値"2d"

このバインディングにバインドされるテクスチャビューに要求されるdimensionを示します。

multisampled, boolean(デフォルト値false

このバインディングにバインドされるテクスチャビューがマルチサンプルである必要があるかどうかを示します。

enum GPUStorageTextureAccess {
    "write-only",
    "read-only",
    "read-write",
};

dictionary GPUStorageTextureBindingLayout {
    GPUStorageTextureAccess access = "write-only";
    required GPUTextureFormat format;
    GPUTextureViewDimension viewDimension = "2d";
};

GPUStorageTextureBindingLayout 辞書には以下のメンバーがあります:

access, GPUStorageTextureAccess(デフォルト値"write-only"

このバインディングのアクセスモード(読み取り・書き込み可能性)を示します。

format, GPUTextureFormat

このバインディングにバインドされるテクスチャビューの要求format

viewDimension, GPUTextureViewDimension(デフォルト値"2d"

このバインディングにバインドされるテクスチャビューに要求されるdimensionを示します。

dictionary GPUExternalTextureBindingLayout {
};

GPUBindGroupLayout オブジェクトは以下のデバイスタイムラインプロパティを持ちます:

[[entryMap]], 型 ordered map<GPUSize32, GPUBindGroupLayoutEntry>、読み取り専用

このGPUBindGroupLayoutが記述する、バインディングインデックス→GPUBindGroupLayoutEntryのマップ。

[[dynamicOffsetCount]], 型 GPUSize32、読み取り専用

このGPUBindGroupLayoutに動的オフセット付きバッファバインディング数。

[[exclusivePipeline]], 型 GPUPipelineBase?、読み取り専用

このGPUBindGroupLayoutを作成したパイプライン(デフォルトパイプラインレイアウトの一部として作成された場合)。nullでない場合、これを使って作成したGPUBindGroupは指定GPUPipelineBaseでのみ使用可能。

createBindGroupLayout(descriptor)

GPUBindGroupLayoutを作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createBindGroupLayout(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUBindGroupLayoutDescriptor 作成するGPUBindGroupLayoutの説明。

戻り値: GPUBindGroupLayout

現行標準タイムライン手順:

  1. descriptor.entries内の各GPUBindGroupLayoutEntryentryについて:

    1. entry.storageTexture存在する場合:

      1. ? テクスチャフォーマット必須機能の検証entry.storageTexture.formatthis.[[device]]で行う。

  2. layout! 新しいWebGPUオブジェクトの生成(this, GPUBindGroupLayout, descriptor)とする。

  3. thisデバイスタイムラインinitialization stepsを発行。

  4. layoutを返す。

デバイスタイムライン initialization steps:
  1. 以下の条件が満たされない場合検証エラー生成layoutの無効化、return。

  2. layout.[[descriptor]]descriptorを設定。

  3. layout.[[dynamicOffsetCount]] に、descriptor内で buffer存在するかつ buffer.hasDynamicOffsettrueなエントリ数を設定。

  4. layout.[[exclusivePipeline]]nullを設定。

  5. descriptor.entries内の各GPUBindGroupLayoutEntryentryについて:

    1. entrylayout.[[entryMap]]entry.bindingをキーとして挿入。

8.1.2. 互換性

2つのGPUBindGroupLayoutオブジェクトabは、以下すべての条件が満たされたときのみグループ同等とみなされます。

バインドグループレイアウトがグループ同等なら、すべての現行標準内容で相互に利用可能です。

8.2. GPUBindGroup

GPUBindGroupは、グループ内でまとめてバインドするリソース集合と、それらがシェーダーステージでどのように利用されるかを定義します。

[Exposed=(Window, Worker), SecureContext]
interface GPUBindGroup {
};
GPUBindGroup includes GPUObjectBase;

GPUBindGroupは以下のデバイスタイムラインプロパティを持ちます:

[[layout]], 型 GPUBindGroupLayout、読み取り専用

このGPUBindGroupに関連付けられているGPUBindGroupLayout

[[entries]], 型 sequence<GPUBindGroupEntry>、読み取り専用

このGPUBindGroupが記述するGPUBindGroupEntryの集合。

[[usedResources]], 型 usage scope、読み取り専用

このバインドグループが使用するバッファ・テクスチャサブリソースの集合。利用される内部用途フラグのリストも関連付けられます。

GPUBindGroupbindGroupバインドバッファ範囲は、list<GPUBufferDynamicOffset> dynamicOffsetsが与えられたとき、以下の手順で算出されます:
  1. resultを新しいset<(GPUBindGroupLayoutEntry, GPUBufferBinding)>として用意。

  2. dynamicOffsetIndexを0に設定。

  3. bindGroup.[[entries]]内の各GPUBindGroupEntrybindGroupEntrybindGroupEntry.bindingでソート済み)について:

    1. bindGroupLayoutEntrybindGroup.[[layout]].[[entryMap]][bindGroupEntry.binding]とする。

    2. bindGroupLayoutEntry.buffer存在しない場合、continue

    3. boundget as buffer binding(bindGroupEntry.resource)とする。

    4. bindGroupLayoutEntry.buffer.hasDynamicOffsetの場合:

      1. bound.offsetdynamicOffsets[dynamicOffsetIndex]を加算。

      2. dynamicOffsetIndexを1増やす。

    5. 追加 (bindGroupLayoutEntry, bound) を result に。

  4. resultを返す。

8.2.1. バインドグループの作成

GPUBindGroupGPUDevice.createBindGroup()で作成します。

dictionary GPUBindGroupDescriptor
         : GPUObjectDescriptorBase {
    required GPUBindGroupLayout layout;
    required sequence<GPUBindGroupEntry> entries;
};

GPUBindGroupDescriptor 辞書には以下のメンバーがあります:

layout, GPUBindGroupLayout

このバインドグループのエントリが準拠するGPUBindGroupLayout

entries, 型 sequence<GPUBindGroupEntry>

layoutで記述される各バインディングに対し、シェーダーで公開するリソースを記述するエントリのリスト。

typedef (GPUSampler or
         GPUTexture or
         GPUTextureView or
         GPUBuffer or
         GPUBufferBinding or
         GPUExternalTexture) GPUBindingResource;

dictionary GPUBindGroupEntry {
    required GPUIndex32 binding;
    required GPUBindingResource resource;
};

GPUBindGroupEntryGPUBindGroup内でバインドする1つのリソースを記述し、以下のメンバーを持ちます:

binding, GPUIndex32

このGPUBindGroup内でリソースバインディングを一意に識別するID。 GPUBindGroupLayoutEntry.binding および、GPUShaderModule@binding属性に対応。

resource, GPUBindingResource

バインドするリソース。GPUSamplerGPUTextureGPUTextureViewGPUBufferGPUBufferBinding、 またはGPUExternalTexture

GPUBindGroupEntry は以下のデバイスタイムラインプロパティを持ちます:

[[prevalidatedSize]], 型 boolean

このバインディングエントリが作成時にバッファサイズ検証済みかどうか。

dictionary GPUBufferBinding {
    required GPUBuffer buffer;
    GPUSize64 offset = 0;
    GPUSize64 size;
};

GPUBufferBinding はバッファおよびオプションの範囲をリソースとしてバインドするために記述し、以下のメンバーを持ちます:

buffer, GPUBuffer

バインドするGPUBuffer

offset, GPUSize64(デフォルト値0

bufferの先頭から、バッファバインディングでシェーダーに公開する範囲の先頭までのバイトオフセット。

size, GPUSize64

バッファバインディングのバイトサイズ。 指定されていない場合は、 offsetからbufferの末尾までの範囲。

createBindGroup(descriptor)

GPUBindGroupを作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createBindGroup(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUBindGroupDescriptor 作成するGPUBindGroupの説明。

戻り値: GPUBindGroup

現行標準タイムライン手順:

  1. bindGroup! 新しいWebGPUオブジェクトの生成(this, GPUBindGroup, descriptor)とする。

  2. thisデバイスタイムラインinitialization stepsを発行。

  3. bindGroupを返す。

デバイスタイムライン initialization steps:
  1. limitsthis.[[device]].[[limits]]とする。

  2. 以下の条件が満たされない場合検証エラー生成bindGroupの無効化、return。

    descriptor.entries内の各GPUBindGroupEntrybindingDescriptorについて:

  3. bindGroup.[[layout]] = descriptor.layout

  4. bindGroup.[[entries]] = descriptor.entries

  5. bindGroup.[[usedResources]] = {}。

  6. descriptor.entries内の各GPUBindGroupEntrybindingDescriptorについて:

    1. internalUsagelayoutBindingバインディング用途とする。

    2. resourceが参照する各サブリソース[[usedResources]]internalUsageとして追加。

    3. 定義されたbinding memberbufferかつ layoutBinding.buffer.minBindingSize0なら bindingDescriptor.[[prevalidatedSize]]false、それ以外ならtrueとする。

get as texture view(resource)

引数:

戻り値: GPUTextureView

  1. Assert resourceGPUTexture またはGPUTextureViewである。

  2. もしresourceが:

    GPUTexture
    1. resource.createView()を返す。

    GPUTextureView
    1. resourceを返す。

get as buffer binding(resource)

引数:

戻り値: GPUBufferBinding

  1. Assert resourceGPUBuffer またはGPUBufferBindingである。

  2. もしresourceが:

    GPUBuffer
    1. bufferBindingを新しいGPUBufferBindingとして用意。

    2. bufferBinding.bufferresourceに設定。

    3. bufferBindingを返す。

    GPUBufferBinding
    1. resourceを返す。

effective buffer binding size(binding)

引数:

戻り値: GPUSize64

  1. もしbinding.size指定されていない場合:

    1. max(0, binding.buffer.size - binding.offset)を返す。

  2. binding.size を返す。

2つのGPUBufferBinding オブジェクトabは、以下すべての条件を満たした場合のみバッファバインディングのエイリアスとみなされます。

注: この計算を行う際、動的オフセットはすでに範囲に適用されています。

8.3. GPUPipelineLayout

GPUPipelineLayout は、setBindGroup()でコマンドエンコード中にセットされたすべてのGPUBindGroupのリソースと、 GPURenderCommandsMixin.setPipeline またはGPUComputePassEncoder.setPipelineでセットされたパイプラインのシェーダーとの間のマッピングを定義します。

リソースの完全なバインディングアドレスは次の三つ組みとして定義できます:

  1. リソースが可視となるシェーダーステージマスク

  2. バインドグループインデックス

  3. バインディング番号

アドレスの各要素はパイプラインのバインディング空間ともみなせます。1つのGPUBindGroup (対応するGPUBindGroupLayout付き)は、固定のバインドグループインデックスに対する空間をカバーします。含まれるバインディングは、そのバインドグループインデックスでシェーダーが利用するリソースのスーパーセットである必要があります。

[Exposed=(Window, Worker), SecureContext]
interface GPUPipelineLayout {
};
GPUPipelineLayout includes GPUObjectBase;

GPUPipelineLayout は以下のデバイスタイムラインプロパティを持ちます:

[[bindGroupLayouts]], 型 list<GPUBindGroupLayout>、読み取り専用

作成時にGPUPipelineLayoutDescriptor.bindGroupLayoutsで指定されたGPUBindGroupLayoutオブジェクト群。

注: 同じGPUPipelineLayout を複数のGPURenderPipelineGPUComputePipeline パイプライン間で使用すると、これらのパイプライン間で切り替えが発生してもユーザーエージェントが内部でリソースを再バインドする必要がないことが保証されます。

GPUComputePipeline オブジェクトXがGPUPipelineLayout.bindGroupLayouts A, B, Cで作成されたとします。GPUComputePipeline オブジェクトYはA, D, Cで作成されたとします。コマンドエンコードシーケンスが次の2つのディスパッチであると仮定します:
  1. setBindGroup(0, ...)

  2. setBindGroup(1, ...)

  3. setBindGroup(2, ...)

  4. setPipeline(X)

  5. dispatchWorkgroups()

  6. setBindGroup(1, ...)

  7. setPipeline(Y)

  8. dispatchWorkgroups()

この場合、ユーザーエージェントは2回目のdispatchのためにグループスロット2を再バインドする必要があります。これは、GPUPipelineLayout.bindGroupLayouts のインデックス2のGPUBindGroupLayoutや、 スロット2のGPUBindGroupが変化しなくても発生します。

注: GPUPipelineLayout の推奨される利用方法は、最も一般的かつ変更頻度の低いバインドグループをレイアウトの「下部」、すなわちバインドグループスロット番号が0や1など低い位置に配置することです。描画呼び出し間で頻繁に変更する必要があるバインドグループほどインデックスを高くします。この一般的なガイドラインにより、ユーザーエージェントは描画呼び出し間の状態変更を最小化し、結果としてCPUオーバーヘッドも低減できます。

8.3.1. パイプラインレイアウトの作成

GPUPipelineLayoutGPUDevice.createPipelineLayout()で作成されます。

dictionary GPUPipelineLayoutDescriptor
         : GPUObjectDescriptorBase {
    required sequence<GPUBindGroupLayout?> bindGroupLayouts;
};

GPUPipelineLayoutDescriptor 辞書はパイプラインが用いるすべてのGPUBindGroupLayoutを定義し、次のメンバーを持ちます:

bindGroupLayouts, sequence<GPUBindGroupLayout?>

パイプラインが利用するオプションのGPUBindGroupLayoutのリスト。 各要素はGPUShaderModule@group属性に対応し、N番目の要素が@group(N)に対応します。

createPipelineLayout(descriptor)

GPUPipelineLayoutを作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createPipelineLayout(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUPipelineLayoutDescriptor 作成するGPUPipelineLayoutの説明。

戻り値: GPUPipelineLayout

現行標準タイムライン手順:

  1. pl! 新しいWebGPUオブジェクトの生成(this, GPUPipelineLayout, descriptor)とする。

  2. thisデバイスタイムラインinitialization stepsを発行。

  3. plを返す。

デバイスタイムライン initialization steps:
  1. limitsthis.[[device]].[[limits]]とする。

  2. bindGroupLayoutsnullGPUBindGroupLayoutで構成されたlistとして用意し、サイズlimits.maxBindGroupsとする。

  3. bindGroupLayout(インデックスi)についてdescriptor.bindGroupLayouts内で:

    1. bindGroupLayoutnullでなく、かつbindGroupLayout.[[descriptor]].entriesが空でない場合:

      1. bindGroupLayouts[i]にbindGroupLayoutを設定。

  4. nullbglについて、bgl.[[descriptor]].entriesを連結した結果をallEntriesとする。

  5. 以下の条件が満たされない場合検証エラー生成plの無効化、return。

  6. pl.[[bindGroupLayouts]]bindGroupLayoutsを設定。

注: 2つのGPUPipelineLayout オブジェクトは、内部の[[bindGroupLayouts]]シーケンスが GPUBindGroupLayoutグループ同等であれば、いかなる用途でも等価とみなされます。

8.4.

ユニフォームバッファ、テクスチャ、サンプラーのバインディングを記述するGPUBindGroupLayoutを作成します。 そして、GPUBindGroupGPUPipelineLayout を、このGPUBindGroupLayoutを用いて作成します。
const bindGroupLayout = gpuDevice.createBindGroupLayout({
    entries: [{
        binding: 0,
        visibility: GPUShaderStage.VERTEX | GPUShaderStage.FRAGMENT,
        buffer: {}
    }, {
        binding: 1,
        visibility: GPUShaderStage.FRAGMENT,
        texture: {}
    }, {
        binding: 2,
        visibility: GPUShaderStage.FRAGMENT,
        sampler: {}
    }]
});

const bindGroup = gpuDevice.createBindGroup({
    layout: bindGroupLayout,
    entries: [{
        binding: 0,
        resource: { buffer: buffer },
    }, {
        binding: 1,
        resource: texture
    }, {
        binding: 2,
        resource: sampler
    }]
});

const pipelineLayout = gpuDevice.createPipelineLayout({
    bindGroupLayouts: [bindGroupLayout]
});

9. シェーダーモジュール

9.1. GPUShaderModule

[Exposed=(Window, Worker), SecureContext]
interface GPUShaderModule {
    Promise<GPUCompilationInfo> getCompilationInfo();
};
GPUShaderModule includes GPUObjectBase;

GPUShaderModule は内部シェーダーモジュールオブジェクトへの参照です。

9.1.1. シェーダーモジュールの生成

dictionary GPUShaderModuleDescriptor
         : GPUObjectDescriptorBase {
    required USVString code;
    sequence<GPUShaderModuleCompilationHint> compilationHints = [];
};
code, USVString

シェーダーモジュールの WGSL ソースコード。

compilationHints, 型 sequence<GPUShaderModuleCompilationHint>、デフォルト値 []

GPUShaderModuleCompilationHint のリストです。

アプリケーションが提供するヒントには、最終的にエントリーポイントから作成されるパイプラインのエントリーポイント情報を含めるべきです。

実装は、GPUShaderModuleCompilationHint に含まれる情報を使用して、createShaderModule() 内で可能な限り多くのコンパイルを行うべきです。

型チェック以外では、これらのヒントは一切検証されません。

注:
compilationHints に情報を指定しても、 性能以外に観測可能な効果はありません。作成されないパイプラインに対してヒントを与えると性能が低下する場合もあります。

1つのシェーダーモジュールは複数のエントリーポイントを持つことができ、複数のパイプラインが単一のシェーダーモジュールから作成されるため、 実装側は createShaderModule() で一度にできるだけ多くのコンパイルを行うことで、複数回 createComputePipeline()createRenderPipeline() を呼び出すよりも高い性能を得られる場合があります。

ヒントは明示的に名前が指定されたエントリーポイントにのみ適用されます。 GPUProgrammableStage.entryPoint とは異なり、デフォルト値はありません(モジュールにエントリーポイントが1つだけであっても)。

注: ヒントは観測可能な方法で検証されませんが、ユーザーエージェントは(未知のエントリーポイント名や非互換なパイプラインレイアウトなどの)識別可能なエラーを開発者向けに 表示してもかまいません(例: ブラウザの開発者コンソールなど)。

createShaderModule(descriptor)

GPUShaderModule を生成します。

呼び出し元: GPUDevice this。

引数:

GPUDevice.createShaderModule(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUShaderModuleDescriptor GPUShaderModule の説明

戻り値: GPUShaderModule

コンテンツタイムラインの手順:

  1. sm! 新しい WebGPU オブジェクトを作成する(this, GPUShaderModule, descriptor)。

  2. initialization stepsデバイスタイムライン上で実行する。

  3. sm を返す。

デバイスタイムライン initialization steps:
  1. error を、WGSL ソース descriptor.codeシェーダーモジュール生成時に発生したエラー、またはエラーがなければ null とする。

  2. 以下の要件が満たされない場合、 バリデーションエラーを生成し、sm を無効化し、終了する。

    注: 分類されていないエラーは シェーダーモジュールの生成時には発生しません。 実装が生成時にそのようなエラーを検出した場合、シェーダーモジュールは有効であるかのように振る舞い、パイプライン生成までエラーの提示を遅延させる必要があります。

注:
ユーザーエージェントは、ここで発生するバリデーションエラーの message テキストに詳細なコンパイラエラーメッセージやシェーダーテキストを含めるべきではありません: これらの詳細は getCompilationInfo() で取得できます。 ユーザーエージェントは、開発者向けに人間が読める形式のエラー詳細を表示するべきです (例: ブラウザの開発者コンソールの警告、シェーダー全文表示可能など)。

シェーダーのコンパイルエラーは現行標準のアプリケーションではまれなため、ユーザーエージェントは エラー処理 (GPUエラースコープuncapturederror イベントハンドラ) に関係なく、開発者向けに表示しても良いです。 そうしない場合は、ユーザーが人間向けの詳細を必ず取得できる方法(例: チェックボックスでエラー表示、GPUCompilationInfo オブジェクトをコンソールに表示時に詳細表示など)を用意し、文書化すべきです。

WGSL コードから GPUShaderModule を作成する:
// ビューポート全体を赤で塗りつぶす単純なバーテックス・フラグメントシェーダーペア。
const shaderSource = `
    var<private> pos : array<vec2<f32>, 3> = array<vec2<f32>, 3>(
        vec2(-1.0, -1.0), vec2(-1.0, 3.0), vec2(3.0, -1.0));

    @vertex
    fn vertexMain(@builtin(vertex_index) vertexIndex : u32) -> @builtin(position) vec4<f32> {
        return vec4(pos[vertexIndex], 1.0, 1.0);
    }

    @fragment
    fn fragmentMain() -> @location(0) vec4<f32> {
        return vec4(1.0, 0.0, 0.0, 1.0);
    }
`;

const shaderModule = gpuDevice.createShaderModule({
    code: shaderSource,
});
9.1.1.1. シェーダーモジュールのコンパイルヒント

シェーダーモジュールのコンパイルヒントは、任意の追加情報であり、特定の GPUShaderModule エントリーポイントが将来的にどのように使用される予定かを示します。一部の実装では、この情報によってシェーダーモジュールを早期にコンパイルでき、性能向上につながる場合があります。

dictionary GPUShaderModuleCompilationHint {
    required USVString entryPoint;
    (GPUPipelineLayout or GPUAutoLayoutMode) layout;
};
layout, (GPUPipelineLayout or GPUAutoLayoutMode)

GPUPipelineLayout は、GPUShaderModule が今後 createComputePipeline()createRenderPipeline() の呼び出し時に使用される場合に参照されます。 "auto" に設定した場合は、このヒントに関連付けられたエントリーポイント用のデフォルトのパイプラインレイアウトが使用されます。

注:
可能であれば、著者は createShaderModule()createComputePipeline() / createRenderPipeline() の両方に同じ情報を渡すべきです。

アプリケーションが createShaderModule() の呼び出し時にヒント情報を提供できない場合は、通常 createShaderModule() の呼び出しを遅らせるのではなく、 compilationHints 配列や GPUShaderModuleCompilationHint の個々のメンバーから未知の情報を省略するべきです。 省略した場合、コンパイルは createComputePipeline() / createRenderPipeline() 時に遅延して行われる可能性があります。

著者が createShaderModule() に渡すヒント情報が、後で同じモジュールに対して createComputePipeline() / createRenderPipeline() に渡す情報と一致しない可能性がある場合は、 createShaderModule() にはその情報を渡さないようにすべきです。 不一致の情報を createShaderModule() に渡すと、不要なコンパイルが発生する場合があります。

9.1.2. シェーダーモジュールのコンパイル情報

enum GPUCompilationMessageType {
    "error",
    "warning",
    "info",
};

[Exposed=(Window, Worker), Serializable, SecureContext]
interface GPUCompilationMessage {
    readonly attribute DOMString message;
    readonly attribute GPUCompilationMessageType type;
    readonly attribute unsigned long long lineNum;
    readonly attribute unsigned long long linePos;
    readonly attribute unsigned long long offset;
    readonly attribute unsigned long long length;
};

[Exposed=(Window, Worker), Serializable, SecureContext]
interface GPUCompilationInfo {
    readonly attribute FrozenArray<GPUCompilationMessage> messages;
};

GPUCompilationMessage は、GPUShaderModule コンパイラによって生成される情報、警告、またはエラーメッセージです。これらのメッセージはデベロッパーがシェーダーのcode の問題を診断しやすいように、人間が読める形で提供されます。 各メッセージはシェーダーソースの1つの箇所または範囲に対応している場合もあれば、特定のコード部分に紐付かない場合もあります。

GPUCompilationMessage には以下の属性があります:

message, DOMString, 読み取り専用

このコンパイルメッセージの人間が読めるローカライズ可能なテキスト

注: message言語および方向情報のベストプラクティスに従うべきです。これには、今後登場する文字列の言語・方向メタデータに関する標準を活用することも含みます。

編集上の注: 本書執筆時点では、レガシーAPIと互換性・一貫性を持つ言語/方向の推奨事項はありませんが、今後登場した際は正式に採用してください。

type, GPUCompilationMessageType, 読み取り専用

メッセージの重大度レベル。

type"error" の場合、 シェーダー生成エラーに対応します。

lineNum, unsigned long long, 読み取り専用

この message が対応するシェーダー code の行番号。値は1始まりで、1はシェーダー code の最初の行を示します。 行区切りは改行です。

message が部分文字列に対応する場合は、その部分文字列が始まる行を指します。メッセージがシェーダー code の特定の位置に対応しない場合は、値は 0 です。

linePos, unsigned long long, 読み取り専用

シェーダー lineNum 行の先頭から、message が対応する位置/部分文字列のUTF-16コード単位数。値は1始まりで、linePos1 の場合はその行の最初のコードユニットです。

message が部分文字列に対応する場合は、その部分文字列の最初のUTF-16コードユニットを指します。メッセージがシェーダー code の特定の位置に対応しない場合は、値は 0 です。

offset, unsigned long long, 読み取り専用

シェーダー code の先頭から、message が対応する位置/部分文字列までのUTF-16コード単位数。同じ位置は lineNum および linePos でも参照されます。メッセージがシェーダー code の特定の位置に対応しない場合は、値は 0 です。

length, unsigned long long, 読み取り専用

message が対応する部分文字列のUTF-16コード単位数。メッセージが部分文字列に対応しない場合は length は0です。

注: GPUCompilationMessage.lineNum および GPUCompilationMessage.linePos は、主な用途が多くのテキストエディタの行・列番号と照合できる人間向けメッセージの印刷であるため、1始まりです。

注: GPUCompilationMessage.offset および GPUCompilationMessage.length は、シェーダー code の部分文字列取得に substr() へ渡すのに適しています。 message が対応する部分文字列を抽出できます。

getCompilationInfo()

GPUShaderModule の コンパイル時に生成されたメッセージを返します。

メッセージの位置、順序、および内容は実装依存です。 特に、メッセージがlineNumで順序付けされるとは限りません。

呼び出し元: GPUShaderModule this

戻り値: Promise<GPUCompilationInfo>

コンテンツタイムラインの手順:

  1. 現在の コンテンツタイムラインcontentTimeline とする。

  2. promise新しい Promiseとして生成する。

  3. synchronization stepsデバイスタイムライン上で実行する。

  4. promise を返す。

デバイスタイムライン synchronization steps:
  1. thisシェーダーモジュール生成が(成功・失敗問わず)完了したときに event が発生する。

  2. タイムラインイベントを監視 eventthis.[[device]] で発生させ、以降の手順は contentTimeline で処理する。

コンテンツタイムラインの手順:
  1. 新しい GPUCompilationInfoinfo とする。

  2. シェーダーモジュール生成時に this で生成されたエラー・警告・情報メッセージのリストを messages とする。デバイスが失われた場合は空リスト []

  3. messages の各 message について:

    1. 新しい GPUCompilationMessagem とする。

    2. m.messagemessage のテキストを設定する。

    3. messageシェーダー生成エラーの場合:

      m.type"error" を設定する

      警告の場合:

      m.type"warning" を設定する

      その他:

      m.type"info" を設定する

    4. message がシェーダー code 内の特定の部分文字列や位置に対応する場合:
      1. m.lineNum に、メッセージが参照する最初の行番号(1始まり)を設定する。

      2. m.linePos に、その行の最初のUTF-16コードユニット番号(1始まり)を設定する。メッセージが行全体を参照する場合は 1

      3. m.offset に、シェーダー開始から部分文字列/位置までのUTF-16コード単位数を設定する。

      4. m.length に、メッセージが参照する部分文字列のUTF-16コード単位数、または位置の場合は0を設定する。

      その他:
      1. m.lineNum0 を設定する。

      2. m.linePos0 を設定する。

      3. m.offset0 を設定する。

      4. m.length0 を設定する。

    5. info.messagesm を追加する。

  4. promiseinfo で解決する。

10. パイプライン

パイプラインは、GPUComputePipelineGPURenderPipeline のいずれであっても、バインディングや頂点バッファなどの入力データを処理して、出力レンダーターゲットの色などの出力を生成する、GPUハードウェア・ドライバー・ユーザーエージェントの組み合わせによる機能全体を表します。

構造的には、パイプラインはプログラム可能なステージ(シェーダー)と、ブレンドモードなどの固定機能ステートの連なりで構成されます。

注: 内部的には、ターゲットプラットフォームによっては、ドライバーが一部の固定機能ステートをシェーダーコードに変換し、ユーザーが提供したシェーダーとリンクする場合があります。このリンク処理が、オブジェクトを一体として生成する理由のひとつです。

この組み合わせ状態は1つのオブジェクト (GPUComputePipeline または GPURenderPipeline) として作成され、1つのコマンド (GPUComputePassEncoder.setPipeline() または GPURenderCommandsMixin.setPipeline() で切り替えます。

パイプラインの生成方法は2つあります:

即時パイプライン生成

createComputePipeline() および createRenderPipeline() は、パスエンコーダで即座に使用可能なパイプラインオブジェクトを返します。

これが失敗すると、パイプラインオブジェクトは無効となり、呼び出しは バリデーションエラーまたは内部エラーを生成します。

注: ハンドルオブジェクトは即座に返されますが、実際のパイプライン生成は同期的ではありません。 パイプライン生成に時間がかかる場合、生成呼び出しからパイプラインが最初に使用される submit() 実行までの間の デバイスタイムライン のどこかで待ちが発生する可能性があります。 このタイミングは規定されていませんが、主に次のいずれかです: 生成時、setPipeline()でパイプラインが初めて使われる時、対応する finish()GPUCommandEncoder または GPURenderBundleEncoder)時、 または submit()GPUCommandBuffer が実行された時です。

非同期 パイプライン生成

createComputePipelineAsync() および createRenderPipelineAsync() は、パイプライン生成が完了するとパイプラインオブジェクトに解決されるPromiseを返します。

失敗した場合、PromiseGPUPipelineError で reject されます。

GPUPipelineErrorはパイプライン生成失敗を表します。

[Exposed=(Window, Worker), SecureContext, Serializable]
interface GPUPipelineError : DOMException {
    constructor(optional DOMString message = "", GPUPipelineErrorInit options);
    readonly attribute GPUPipelineErrorReason reason;
};

dictionary GPUPipelineErrorInit {
    required GPUPipelineErrorReason reason;
};

enum GPUPipelineErrorReason {
    "validation",
    "internal",
};

GPUPipelineError のコンストラクタ:

constructor()
引数:
GPUPipelineError.constructor() メソッドの引数。
パラメータ Nullable Optional 説明
message DOMString 基底 DOMException のエラーメッセージ
options GPUPipelineErrorInit GPUPipelineError 固有のオプション

コンテンツタイムラインの手順:

  1. this.name"GPUPipelineError" に設定する。

  2. this.messagemessage に設定する。

  3. this.reasonoptions.reason に設定する。

GPUPipelineError には以下の属性があります:

reason, GPUPipelineErrorReason, 読み取り専用

パイプライン生成時に遭遇したエラー種別を GPUPipelineErrorReason として公開する読み取り専用スロット属性です:

GPUPipelineError オブジェクトはシリアライズ可能オブジェクトです。

valueおよびserializedに対するシリアライズ手順は以下の通りです:
  1. DOMExceptionシリアライズ手順valueserialized に対して実行する。

valueおよびserializedに対するデシリアライズ手順は以下の通りです:
  1. DOMExceptionデシリアライズ手順valueserialized に対して実行する。

10.1. ベースパイプライン

enum GPUAutoLayoutMode {
    "auto",
};

dictionary GPUPipelineDescriptorBase
         : GPUObjectDescriptorBase {
    required (GPUPipelineLayout or GPUAutoLayoutMode) layout;
};
layout, (GPUPipelineLayout or GPUAutoLayoutMode)

このパイプラインの GPUPipelineLayout または "auto" を指定すると パイプラインレイアウトが自動生成されます。

注: "auto" を使用した場合、そのパイプラインは他のパイプラインと GPUBindGroup を共有できません。

interface mixin GPUPipelineBase {
    [NewObject] GPUBindGroupLayout getBindGroupLayout(unsigned long index);
};

GPUPipelineBase には以下のデバイスタイムラインプロパティがあります:

[[layout]], 型 GPUPipelineLayout

thisで使用できるリソースのレイアウト定義。

GPUPipelineBase には以下のメソッドがあります:

getBindGroupLayout(index)

GPUPipelineBaseGPUBindGroupLayout に互換性のある GPUBindGroupLayoutindex で取得します。

呼び出し元: GPUPipelineBase this

引数:

GPUPipelineBase.getBindGroupLayout(index) メソッドの引数。
パラメータ Nullable Optional 説明
index unsigned long パイプラインレイアウトの [[bindGroupLayouts]] シーケンスのインデックス。

戻り値: GPUBindGroupLayout

コンテンツタイムラインの手順:

  1. 新しい GPUBindGroupLayout オブジェクトを layout とする。

  2. thisデバイスタイムライン上で initialization steps を実行する。

  3. layout を返す。

デバイスタイムライン initialization steps:
  1. limitsthis.[[device]].[[limits]] とする。

  2. 以下のいずれかの条件が満たされない場合 バリデーションエラーを生成し、layoutを無効化して終了する。

  3. layoutthis.[[layout]].[[bindGroupLayouts]][index] のコピーとして初期化する。

    注: GPUBindGroupLayout は常に値渡しで使われ、参照渡しにはなりません。 つまり、同じ内部オブジェクトを新しいWebGPUインターフェースで返すのと同じです。 毎回新しい GPUBindGroupLayout WebGPUインターフェースが返されるので、 コンテンツタイムラインデバイスタイムライン間の往復を避けることができます。

10.1.1. デフォルトパイプラインレイアウト

GPUPipelineBase オブジェクトが layout"auto" を設定して作成された場合、デフォルトレイアウトが生成されて使用されます。

注: デフォルトレイアウトは簡単なパイプライン向けの便宜で提供されていますが、ほとんどの場合は明示的なレイアウトの利用が推奨されます。デフォルトレイアウトで作成したバインドグループは他のパイプラインと共有できず、シェーダーを変更するとデフォルトレイアウトの構造も変化し、予期しないバインドグループ生成エラーが発生することがあります。

デフォルトパイプラインレイアウトGPUPipelineBase pipeline に対して生成するには、 以下のデバイスタイムライン手順を実行する:

  1. groupCount を 0 にする。

  2. groupDescsdevice.[[limits]].maxBindGroups 個の新しい GPUBindGroupLayoutDescriptor オブジェクトの配列とする。

  3. groupDescs の各 groupDesc について:

    1. groupDesc.entries を空のシーケンスにする。

  4. pipeline を生成したディスクリプタ内の各 GPUProgrammableStage stageDesc について:

    1. shaderStagestageDescpipeline で使用されるシェーダーステージの GPUShaderStageFlags とする。

    2. entryPointget the entry point(shaderStage, stageDesc) とする。Assert entryPointnull ではない。

    3. entryPoint静的に使用する各 resource resource について:

      1. groupresource の "group" 修飾子とする。

      2. bindingresource の "binding" 修飾子とする。

      3. entry を新しい GPUBindGroupLayoutEntry とする。

      4. entry.bindingbindingを設定する。

      5. entry.visibilityshaderStage を設定する。

      6. resource がサンプラーバインディングの場合:

        1. samplerLayout を新しい GPUSamplerBindingLayout とする。

        2. entry.samplersamplerLayout を設定する。

      7. resource が比較サンプラーバインディングの場合:

        1. samplerLayout を新しい GPUSamplerBindingLayout とする。

        2. samplerLayout.type"comparison" を設定する。

        3. entry.samplersamplerLayout を設定する。

      8. resource がバッファバインディングの場合:

        1. bufferLayout を新しい GPUBufferBindingLayout とする。

        2. bufferLayout.minBindingSizeresource最小バッファバインディングサイズを設定する。

        3. resource が読み取り専用ストレージバッファの場合:

          1. bufferLayout.type"read-only-storage" を設定する。

        4. resource がストレージバッファの場合:

          1. bufferLayout.type"storage" を設定する。

        5. entry.bufferbufferLayout を設定する。

      9. resource がサンプリングテクスチャバインディングの場合:

        1. textureLayout を新しい GPUTextureBindingLayout とする。

        2. resource が深度テクスチャバインディングの場合:

          そうでない場合、resource のサンプル型が:

          f32 かつ stageDesc から resource へのサンプラー付きテクスチャ組み込み関数呼び出しが 静的に使用されている場合

          textureLayout.sampleType"float" を設定する。

          f32 その他の場合

          textureLayout.sampleType"unfilterable-float" を設定する。

          i32

          textureLayout.sampleType"sint" を設定する。

          u32

          textureLayout.sampleType"uint" を設定する。

        3. textureLayout.viewDimensionresource の次元を設定する。

        4. resource がマルチサンプルテクスチャの場合:

          1. textureLayout.multisampledtrue を設定する。

        5. entry.texturetextureLayout を設定する。

      10. resource がストレージテクスチャバインディングの場合:

        1. storageTextureLayout を新しい GPUStorageTextureBindingLayout とする。

        2. storageTextureLayout.formatresource のフォーマットを設定する。

        3. storageTextureLayout.viewDimensionresource の次元を設定する。

        4. アクセスモードが:

          read

          textureLayout.access"read-only" を設定する。

          write

          textureLayout.access"write-only" を設定する。

          read_write

          textureLayout.access"read-write" を設定する。

        5. entry.storageTexturestorageTextureLayout を設定する。

      11. groupCount を max(groupCount, group + 1) にする。

      12. groupDescs[group] に bindingbinding と等しい entry previousEntry がある場合:

        1. entryvisibilitypreviousEntry と異なる場合:

          1. entry.visibility でセットされたビットを previousEntry.visibility に追加する。

        2. resource がバッファバインディングで、entrybuffer.minBindingSizepreviousEntry より大きい場合:

          1. previousEntry.buffer.minBindingSizeentry.buffer.minBindingSize を設定する。

        3. resource がサンプリングテクスチャバインディングで、entrytexture.sampleTypepreviousEntry と異なり、かつ両方とも sampleType"float" または "unfilterable-float" の場合:

          1. previousEntry.texture.sampleType"float" を設定する。

        4. その他のプロパティが entrypreviousEntry の間で異なる場合:

          1. null を返す(パイプライン生成は失敗する)。

        5. resource がストレージテクスチャバインディングで、 entry.storageTexture.access"read-write"previousEntry.storageTexture.access"write-only"、 かつ previousEntry.storageTexture.format§ 26.1.1 プレーンカラー形式テーブルに従って STORAGE_BINDING"read-write" に互換性がある場合:

          1. previousEntry.storageTexture.access"read-write" に設定する。

          それ以外の場合:

          1. entrygroupDescs[group] に追加する。

  5. groupLayouts を新しいリストとする。

  6. i を 0 から groupCount - 1 まで順に:

    1. groupDescgroupDescs[i] とする。

    2. bindGroupLayoutdevice.createBindGroupLayout()(groupDesc) の結果とする。

    3. bindGroupLayout.[[exclusivePipeline]]pipeline を設定する。

    4. bindGroupLayoutgroupLayouts に追加する。

  7. desc を新しい GPUPipelineLayoutDescriptor とする。

  8. desc.bindGroupLayoutsgroupLayouts を設定する。

  9. device.createPipelineLayout()(desc) を返す。

10.1.2. GPUProgrammableStage

GPUProgrammableStage は、ユーザーが提供した GPUShaderModule 内でパイプラインのプログラム可能ステージの1つを制御するエントリーポイントを記述します。 エントリーポイント名はWGSL識別子比較で定義された規則に従います。

dictionary GPUProgrammableStage {
    required GPUShaderModule module;
    USVString entryPoint;
    record<USVString, GPUPipelineConstantValue> constants = {};
};

typedef double GPUPipelineConstantValue; // WGSLのbool, f32, i32, u32, および有効ならf16を表す場合がある。

GPUProgrammableStage には以下のメンバーがあります:

module, GPUShaderModule

このプログラム可能ステージが実行するコードを含む GPUShaderModule です。

entryPoint, USVString

module 内でこのステージが処理を行う関数名。

注: entryPoint は必須ではないため、GPUProgrammableStage を受け取るメソッドは "get the entry point"アルゴリズムを使って どのエントリーポイントを指しているか決定しなければなりません。

constants, 型 record<USVString, GPUPipelineConstantValue>, デフォルト値 {}

シェーダーモジュール module 内の パイプラインオーバーライド可能定数の値を指定します。

パイプラインオーバーライド可能定数は、 1つの パイプラインオーバーライド定数識別子文字列で一意に識別されます。宣言でIDが指定されている場合はパイプライン定数ID、そうでなければ定数の識別子名です。

各キーバリューペアのキーは、 識別子文字列と一致しなければならず、 比較はWGSL識別子比較の規則に従います。 パイプライン実行時、その定数は指定された値を持ちます。

値は GPUPipelineConstantValuedouble)として指定されます。 WGSL型へ変換され、 定数の型が bool / i32 / u32 / f32 / f16 のいずれかになります。 変換に失敗した場合はバリデーションエラーが生成されます。

WGSLで定義されたパイプラインオーバーライド可能定数:
@id(0)      override has_point_light: bool = true;  // アルゴリズム制御用。
@id(1200)   override specular_param: f32 = 2.3;     // 数値制御。
@id(1300)   override gain: f32;                     // 必ずオーバーライドされる必要あり。
            override width: f32 = 0.0;              // APIレベルで指定
                                                    //   名前 "width" を使う。
            override depth: f32;                    // APIレベルで指定
                                                    //   名前 "depth"。
                                                    //   必ずオーバーライドされる必要あり。
            override height = 2 * depth;            // デフォルト値
                                                    // (APIレベルでセットされてなければ)、
                                                    // 他のオーバーライド可能定数に依存。

対応するJavaScriptコード、必須オーバーライドのみ提供:

{
    // ...
    constants: {
        1300: 2.0,  // "gain"
        depth: -1,  // "depth"
    }
}

全ての定数をオーバーライドする場合のJavaScriptコード:

{
    // ...
    constants: {
        0: false,   // "has_point_light"
        1200: 3.0,  // "specular_param"
        1300: 2.0,  // "gain"
        width: 20,  // "width"
        depth: -1,  // "depth"
        height: 15, // "height"
    }
}
get the entry point(GPUShaderStage stage, GPUProgrammableStage descriptor) のデバイスタイムライン手順:
  1. descriptor.entryPoint指定されている場合:

    1. descriptor.module に、 名前が descriptor.entryPoint と一致し、 シェーダーステージが stage と一致するエントリーポイントが含まれているなら、 そのエントリーポイントを返す。

      そうでなければ null を返す。

    そうでない場合:

    1. descriptor.module 内で、シェーダーステージが stage と一致するエントリーポイントがちょうど1つだけある場合、そのエントリーポイントを返す。

      そうでなければ null を返す。

GPUProgrammableStageの検証(stage, descriptor, layout, device)

引数:

以下の手順のすべての要件が満たされていなければならない。 どれかが満たされない場合はfalseを返し、すべて満たされていればtrueを返す。

  1. descriptor.moduledevice に対して有効な状態でなければならない。

  2. entryPointget the entry point(stage, descriptor) とする。

  3. entryPointnull であってはならない。

  4. entryPoint静的に使用する各bindingについて:

  5. entryPointをルートとするシェーダーステージ内の関数における各テクスチャ組み込み関数呼び出しについて、 それが sampled texture型またはdepth texture型のtextureBindingsampler型(sampler_comparisonを除く)のsamplerBindingを使う場合:

    1. texturetextureBindingに対応するGPUBindGroupLayoutEntry とする。

    2. samplersamplerBindingに対応するGPUBindGroupLayoutEntry とする。

    3. もし sampler.type"filtering" なら、 texture.sampleType"float"でなければならない。

    注: "comparison" サンプラーは "depth" テクスチャにのみ使用可能です。これはWGSLのtexture_depth_*バインディングにバインドできる唯一のテクスチャ型です。

  6. descriptor.constants内の各keyvalueについて:

    1. keyパイプラインオーバーライド定数識別子文字列 と一致しなければならず、 その定数はシェーダーモジュールdescriptor.module 内でパイプラインオーバーライド可能定数として定義されていなければならない。 比較はWGSL識別子比較の規則に従う。 この定数がentryPoint静的に使用されている必要はない。 型をTとする。

    2. IDL値valueWGSL型 Tに変換する際、TypeErrorがスローされてはならない。

  7. entryPointパイプラインオーバーライド定数識別子文字列 key静的に使用している場合、

  8. WGSL仕様の規則によりパイプライン生成 プログラムエラーが発生してはならない。

シェーダーバインディングの検証(variable, layout)

引数:

bindGroup をシェーダーバインディング宣言 variable のバインドグループインデックス、 bindIndex をバインディングインデックスとする。

以下すべての条件を満たせばtrueを返す:

最小バッファバインディングサイズは、バッファバインディング変数 var に対して、以下の手順で算出されます:
  1. Tstore型(格納型)とする。

  2. もし Tランタイムサイズ配列、またはランタイムサイズ配列を含む場合、 その array<E>array<E, 1> に置き換える。

    注: これにより常に1要素分のメモリが確保され、配列インデックスを配列長にクランプすることで、メモリ内アクセスが保証されます。

  3. SizeOf(T) を返す。

注: この下限を強制することで、バッファ変数による読み書きはバッファの境界領域内のメモリだけにアクセスすることが保証されます。

リソースバインディング、パイプラインオーバーライド可能定数、シェーダーステージ入力、またはシェーダーステージ出力は、 エントリーポイントのシェーダーステージのインターフェースに存在する場合、 静的に使用される とみなされます。

10.2. GPUComputePipeline

GPUComputePipeline は、コンピュートシェーダーステージを制御し、 パイプラインの一種であり、 GPUComputePassEncoder で使用できます。

コンピュートの入力・出力はすべてバインディングに格納され、 指定された GPUPipelineLayout に従います。 出力は buffer バインディング(型が "storage") や storageTexture バインディング(型が "write-only" または "read-write") に対応します。

コンピュートパイプラインのステージ:

  1. コンピュートシェーダー

[Exposed=(Window, Worker), SecureContext]
interface GPUComputePipeline {
};
GPUComputePipeline includes GPUObjectBase;
GPUComputePipeline includes GPUPipelineBase;

10.2.1. コンピュートパイプラインの生成

GPUComputePipelineDescriptor はコンピュートパイプラインを記述します。詳細は § 23.1 計算処理を参照してください。

dictionary GPUComputePipelineDescriptor
         : GPUPipelineDescriptorBase {
    required GPUProgrammableStage compute;
};

GPUComputePipelineDescriptor には以下のメンバーがあります:

compute, GPUProgrammableStage

パイプラインのコンピュートシェーダーのエントリーポイントを記述します。

createComputePipeline(descriptor)

即時パイプライン生成GPUComputePipeline を作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createComputePipeline(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUComputePipelineDescriptor 作成する GPUComputePipeline の説明。

戻り値: GPUComputePipeline

コンテンツタイムラインの手順:

  1. pipeline! 新しいWebGPUオブジェクトの作成(this, GPUComputePipeline, descriptor) とする。

  2. initialization stepsデバイスタイムライン上で実行する。

  3. pipeline を返す。

デバイスタイムライン initialization steps:
  1. layoutdescriptor.layout"auto" なら デフォルトパイプラインレイアウトの新規生成結果、 そうでなければ descriptor.layout とする。

  2. 以下のすべての要件が満たされていなければならない。 どれかが満たされない場合はバリデーションエラーを生成し、pipelineを無効化して終了する。

    1. layoutthisに対して有効でなければならない。

    2. GPUProgrammableStageの検証(COMPUTE, descriptor.compute, layout, this) が成功しなければならない。

    3. entryPointget the entry point(COMPUTE, descriptor.compute) とする。

      Assert entryPointnullであってはならない。

    4. workgroupStorageUsedentryPointworkgroupアドレス空間を持ち 静的に使用されるすべての型 T について、 roundUp(16, SizeOf(T)) の合計とする。

      workgroupStorageUseddevice.limits.maxComputeWorkgroupStorageSize 以下でなければならない。

    5. entryPointdevice.limits.maxComputeInvocationsPerWorkgroup 以下のinvocation数でなければならない。

    6. entryPointworkgroup_size属性の各成分は、 [device.limits.maxComputeWorkgroupSizeX, device.limits.maxComputeWorkgroupSizeY, device.limits.maxComputeWorkgroupSizeZ] の対応する成分以下でなければならない。

  3. パイプライン生成の実装により パイプライン生成 未分類エラーが発生した場合は、 内部エラーを生成し、pipelineを無効化して終了する。

    注: 実装がシェーダーモジュール生成時に未分類エラーを検出した場合でも、 エラーはここで通知されます。

  4. pipeline.[[layout]]layout を設定する。

createComputePipelineAsync(descriptor)

非同期パイプライン生成GPUComputePipeline を作成します。 返される Promise は、作成されたパイプラインが追加の待機なしで使用可能になったときに解決されます。

パイプライン生成が失敗した場合、返される PromiseGPUPipelineError で reject されます。 (GPUError はデバイスにdispatchされません。)

注: このメソッドは、可能な限り利用するのが推奨されます。パイプラインのコンパイルによる キュータイムライン のブロックを防ぐためです。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createComputePipelineAsync(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUComputePipelineDescriptor 作成する GPUComputePipeline の説明。

戻り値: Promise<GPUComputePipeline>

コンテンツタイムラインの手順:

  1. 現在の コンテンツタイムラインcontentTimeline とする。

  2. promise新しいPromiseとして生成する。

  3. initialization stepsデバイスタイムライン上で実行する。

  4. promise を返す。

デバイスタイムライン initialization steps:
  1. pipeline を新しい GPUComputePipeline とし、this.createComputePipeline()descriptor で呼び出した場合と同様に生成し、ただしエラーはdeviceにdispatchするのではなくerrorとして捕捉する。

  2. pipelineパイプライン生成 (成功・失敗問わず)完了時に event が発生する。

  3. タイムラインイベントを監視 eventthis.[[device]] で発生させ、以降の手順は デバイスタイムライン上で処理する。

デバイスタイムラインの手順:
  1. pipeline有効 または this失われている場合:

    1. 以下の手順を contentTimeline 上で実行:

      コンテンツタイムラインの手順:
      1. promisepipeline で解決する。

    2. 終了。

    注: 失われたデバイスからはエラーは生成されません。 § 22 エラーとデバッグ参照。

  2. pipeline無効 かつ error内部エラーの場合は、以下の手順を contentTimeline 上で実行して終了。

    コンテンツタイムラインの手順:
    1. promiseGPUPipelineErrorreason として "internal" で reject する。

  3. pipeline無効 かつ errorバリデーションエラーの場合は、以下の手順を contentTimeline 上で実行して終了。

    コンテンツタイムラインの手順:
    1. promiseGPUPipelineErrorreason として "validation" で reject する。

単純な GPUComputePipeline の作成例:
const computePipeline = gpuDevice.createComputePipeline({
    layout: pipelineLayout,
    compute: {
        module: computeShaderModule,
        entryPoint: 'computeMain',
    }
});

10.3. GPURenderPipeline

GPURenderPipelineパイプラインの一種であり、 バーテックス・フラグメントシェーダーステージを制御します。 GPURenderPassEncoderGPURenderBundleEncoder で使用できます。

レンダーパイプラインの入力:

レンダーパイプラインの出力:

レンダーパイプラインは以下のレンダーステージから構成されます:

  1. 頂点フェッチ(GPUVertexState.buffers で制御)

  2. バーテックスシェーダー(GPUVertexState で制御)

  3. プリミティブアセンブリ(GPUPrimitiveState で制御)

  4. ラスタライズ(GPUPrimitiveStateGPUDepthStencilStateGPUMultisampleState で制御)

  5. フラグメントシェーダー(GPUFragmentState で制御)

  6. ステンシルテスト・操作(GPUDepthStencilState で制御)

  7. デプステスト・書き込み(GPUDepthStencilState で制御)

  8. 出力マージ(GPUFragmentState.targets で制御)

[Exposed=(Window, Worker), SecureContext]
interface GPURenderPipeline {
};
GPURenderPipeline includes GPUObjectBase;
GPURenderPipeline includes GPUPipelineBase;

GPURenderPipeline には以下のデバイスタイムラインプロパティがあります:

[[descriptor]], 型 GPURenderPipelineDescriptor, 読み取り専用

このパイプラインを記述する GPURenderPipelineDescriptor

GPURenderPipelineDescriptor のすべてのオプションフィールドが定義されています。

[[writesDepth]], 型 boolean, 読み取り専用

パイプラインがデプス/ステンシルアタッチメントのデプス成分に書き込む場合はtrue

[[writesStencil]], 型 boolean, 読み取り専用

パイプラインがデプス/ステンシルアタッチメントのステンシル成分に書き込む場合はtrue

10.3.1. レンダーパイプラインの生成

GPURenderPipelineDescriptor は、各レンダーステージを構成することでレンダーパイプラインを記述します。詳細は§ 23.2 レンダリングを参照してください。

dictionary GPURenderPipelineDescriptor
         : GPUPipelineDescriptorBase {
    required GPUVertexState vertex;
    GPUPrimitiveState primitive = {};
    GPUDepthStencilState depthStencil;
    GPUMultisampleState multisample = {};
    GPUFragmentState fragment;
};

GPURenderPipelineDescriptor には以下のメンバーがあります:

vertex, GPUVertexState

パイプラインのバーテックスシェーダーのエントリーポイントと、その入力バッファレイアウトを記述します。

primitive, GPUPrimitiveState、デフォルト値 {}

パイプラインのプリミティブ関連プロパティを記述します。

depthStencil, GPUDepthStencilState

オプションのデプスステンシルプロパティ(テスト・操作・バイアス)を記述します。

multisample, GPUMultisampleState、デフォルト値 {}

パイプラインのマルチサンプリングプロパティを記述します。

fragment, GPUFragmentState

パイプラインのフラグメントシェーダーのエントリーポイントと、その出力カラ―を記述します。指定されていない場合は、§ 23.2.8 カラー出力なしモードとなります。

createRenderPipeline(descriptor)

即時パイプライン生成GPURenderPipeline を作成します。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createRenderPipeline(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPURenderPipelineDescriptor 作成する GPURenderPipeline の説明。

戻り値: GPURenderPipeline

コンテンツタイムラインの手順:

  1. descriptor.fragment指定されている場合:

    1. null colorStateについて descriptor.fragment.targets:

      1. ? テクスチャフォーマット必須機能の検証colorState.formatthis.[[device]] で行う。

  2. descriptor.depthStencil指定されている場合:

    1. ? テクスチャフォーマット必須機能の検証descriptor.depthStencil.formatthis.[[device]] で行う。

  3. pipeline! 新しいWebGPUオブジェクトの作成(this, GPURenderPipeline, descriptor) とする。

  4. initialization stepsデバイスタイムライン上で実行する。

  5. pipeline を返す。

デバイスタイムライン initialization steps:
  1. layoutdescriptor.layout"auto" なら デフォルトパイプラインレイアウトの新規生成結果、 そうでなければ descriptor.layout とする。

  2. 以下すべての要件が満たされていなければならない。 どれかが満たされない場合はバリデーションエラーを生成し、pipelineを無効化して終了する。

    1. layoutthisに対して有効でなければならない。

    2. GPURenderPipelineDescriptorの検証(descriptor, layout, this) が成功しなければならない。

    3. vertexBufferCountdescriptor.vertex.buffers の最後の非nullエントリのインデックス+1(なければ0)とする。

    4. layout.[[bindGroupLayouts]].sizevertexBufferCountthis.[[device]].[[limits]].maxBindGroupsPlusVertexBuffers 以下でなければならない。

  3. パイプライン生成の実装により パイプライン生成 未分類エラーが発生した場合は、 内部エラーを生成し、pipelineを無効化して終了する。

    注: 実装がシェーダーモジュール生成時に未分類エラーを検出した場合でも、 エラーはここで通知されます。

  4. pipeline.[[descriptor]]descriptor を設定する。

  5. pipeline.[[writesDepth]] に false を設定する。

  6. pipeline.[[writesStencil]] に false を設定する。

  7. depthStencildescriptor.depthStencil とする。

  8. depthStencil が null でない場合:

    1. depthStencil.depthWriteEnabled指定されている場合:

      1. pipeline.[[writesDepth]]depthStencil.depthWriteEnabled を設定する。

    2. depthStencil.stencilWriteMask が 0 でない場合:

      1. stencilFrontdepthStencil.stencilFront とする。

      2. stencilBackdepthStencil.stencilBack とする。

      3. cullModedescriptor.primitive.cullMode とする。

      4. cullMode"front" でない場合、 stencilFront.passOpstencilFront.depthFailOpstencilFront.failOp のいずれかが "keep" でない場合:

        1. pipeline.[[writesStencil]] に true を設定する。

      5. cullMode"back" でない場合、 stencilBack.passOpstencilBack.depthFailOpstencilBack.failOp のいずれかが "keep" でない場合:

        1. pipeline.[[writesStencil]] に true を設定する。

  9. pipeline.[[layout]]layout を設定する。

createRenderPipelineAsync(descriptor)

非同期パイプライン生成GPURenderPipeline を作成します。 返される Promise は、作成されたパイプラインが追加の待機なしで使用可能になったときに解決されます。

パイプライン生成が失敗した場合、返される PromiseGPUPipelineError で reject されます。 (GPUError はデバイスにdispatchされません。)

注: このメソッドは、可能な限り利用するのが推奨されます。パイプラインのコンパイルによる キュータイムライン のブロックを防ぐためです。

呼び出し元: GPUDevice this.

引数:

GPUDevice.createRenderPipelineAsync(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPURenderPipelineDescriptor 作成する GPURenderPipeline の説明。

戻り値: Promise<GPURenderPipeline>

コンテンツタイムラインの手順:

  1. 現在の コンテンツタイムラインcontentTimeline とする。

  2. promise新しいPromiseとして生成する。

  3. initialization stepsデバイスタイムライン上で実行する。

  4. promise を返す。

デバイスタイムライン 初期化ステップ
  1. pipeline を新しい GPURenderPipeline とし、this.createRenderPipeline()descriptor で呼び出した場合と同様に生成し、ただしエラーはdeviceにdispatchするのではなくerrorとして捕捉する。

  2. pipelineパイプライン生成 (成功・失敗問わず)完了時に event が発生する。

  3. タイムラインイベントを監視 eventthis.[[device]] で発生させ、以降の手順は デバイスタイムライン上で処理する。

デバイスタイムラインの手順:
  1. pipeline有効 または this失われている場合:

    1. 以下の手順を contentTimeline 上で実行:

      コンテンツタイムラインの手順:
      1. promisepipeline で解決する。

    2. 終了。

    注: 失われたデバイスからはエラーは生成されません。 § 22 エラーとデバッグ参照。

  2. pipeline無効 かつ error内部エラーの場合は、以下の手順を contentTimeline 上で実行して終了。

    コンテンツタイムラインの手順:
    1. promiseGPUPipelineErrorreason として "internal" で reject する。

  3. pipeline無効 であり、 errorバリデーションエラー の場合、 以下の手順を contentTimeline 上で実行して終了する。

    コンテンツタイムラインの手順:
    1. promiseGPUPipelineErrorreason として "validation" で reject する。

GPURenderPipelineDescriptorの検証(descriptor, layout, device)

引数:

デバイスタイムラインの手順:

  1. 以下すべての条件を満たせば true を返す:

ステージ間インターフェースの検証(device, descriptor)

引数:

戻り値: boolean

デバイスタイムラインの手順:

  1. maxVertexShaderOutputVariablesdevice.limits.maxInterStageShaderVariables とする。

  2. maxVertexShaderOutputLocationdevice.limits.maxInterStageShaderVariables - 1 とする。

  3. descriptor.primitive.topology"point-list"の場合:

    1. maxVertexShaderOutputVariables を 1 減算する。

  4. clip_distancesdescriptor.vertex の出力で宣言されている場合:

    1. clipDistancesSizeclip_distances の配列サイズとする。

    2. maxVertexShaderOutputVariables を ceil(clipDistancesSize / 4) 減算する。

    3. maxVertexShaderOutputLocation を ceil(clipDistancesSize / 4) 減算する。

  5. 以下のいずれかの要件が満たされない場合は false を返す:

    • descriptor.vertex のユーザー定義出力数が maxVertexShaderOutputVariables 以下であること。

    • 各ユーザー定義出力のlocationmaxVertexShaderOutputLocation 以下であること。

  6. descriptor.fragment が指定されている場合:

    1. maxFragmentShaderInputVariablesdevice.limits.maxInterStageShaderVariables に設定する。

    2. descriptor.fragmentの入力となるインターステージ組み込み値それぞれについて:

      1. maxFragmentShaderInputVariables を 1 減算する。

    3. 次のいずれかの要件を満たさない場合は false を返す:

      • descriptor.fragment の各ユーザー定義入力について、descriptor.vertex のユーザー定義出力が、入力のlocation、型、補間が一致する必要がある。

        注: 頂点のみのパイプラインは、頂点ステージでユーザー定義出力を持つことが可能であるが、それらの値は破棄される。

      • descriptor.fragment のユーザー定義入力の数は、maxFragmentShaderInputVariables を超えてはならない。

    4. descriptor.fragment の各ユーザー定義入力のlocationが、device.limits.maxInterStageShaderVariables未満であることを確認する(これは上記のルールから導かれる)。

  7. true を返す。

以下の組み込み値は、インターステージ組み込み値であり、フラグメントシェーダーで使用される場合、maxInterStageShaderVariablesの上限にカウントされる:

単純な GPURenderPipeline の作成例:
const renderPipeline = gpuDevice.createRenderPipeline({
    layout: pipelineLayout,
    vertex: {
        module: shaderModule,
        entryPoint: 'vertexMain'
    },
    fragment: {
        module: shaderModule,
        entryPoint: 'fragmentMain',
        targets: [{
            format: 'bgra8unorm',
        }],
    }
});

10.3.2. プリミティブ状態

dictionary GPUPrimitiveState {
    GPUPrimitiveTopology topology = "triangle-list";
    GPUIndexFormat stripIndexFormat;
    GPUFrontFace frontFace = "ccw";
    GPUCullMode cullMode = "none";

    // Requires "depth-clip-control" feature.
    boolean unclippedDepth = false;
};

GPUPrimitiveState には以下のメンバーがあり、GPURenderPipeline が頂点入力からプリミティブを構築しラスタライズする方法を記述します:

topology, GPUPrimitiveTopology、デフォルト値 "triangle-list"

頂点入力から構築するプリミティブの種類。

stripIndexFormat, GPUIndexFormat

ストリップトポロジー ("line-strip" または "triangle-strip") のパイプラインに対して、インデックスバッファのフォーマットとプリミティブリスタート値 ("uint16"/0xFFFF または "uint32"/0xFFFFFFFF) を決定します。非ストリップトポロジーのパイプラインでは指定できません。

注: 一部の実装では、プリミティブリスタート値の知識がパイプライン状態オブジェクトのコンパイルに必要です。

ストリップトポロジーのパイプラインをインデックス付きドローコール (drawIndexed() または drawIndexedIndirect()) で使う場合、これを設定する必要があり、ドローコールで使うインデックスバッファのフォーマット (setIndexBuffer() で設定) と一致しなければなりません。

詳細は § 23.2.3 プリミティブアセンブリ を参照してください。

frontFace, GPUFrontFace、デフォルト値 "ccw"

どのポリゴンが表面とみなされるかを定義します。

cullMode, GPUCullMode、デフォルト値 "none"

どのポリゴン方向をカリングするか(除去するか)を定義します。

unclippedDepth, boolean、デフォルト値 false

true の場合、深度クリッピングが無効化されます。

"depth-clip-control" 機能が有効化されている必要があります。

GPUPrimitiveStateの検証(descriptor, device) 引数:

デバイスタイムラインの手順:

  1. 以下すべての条件を満たせば true を返す:

enum GPUPrimitiveTopology {
    "point-list",
    "line-list",
    "line-strip",
    "triangle-list",
    "triangle-strip",
};

GPUPrimitiveTopology は、GPURenderPipeline で描画コールを行う際に使用されるプリミティブタイプを定義します。詳細は § 23.2.5 ラスタライズ を参照してください:

"point-list"

各頂点が点プリミティブを定義します。

"line-list"

連続する2頂点ごとに線プリミティブを定義します。

"line-strip"

2頂点目以降の各頂点が前の頂点との間に線プリミティブを定義します。

"triangle-list"

連続する3頂点ごとに三角形プリミティブを定義します。

"triangle-strip"

3頂点目以降の各頂点が前の2頂点との間に三角形プリミティブを定義します。

enum GPUFrontFace {
    "ccw",
    "cw",
};

GPUFrontFace は、GPURenderPipeline によってどのポリゴンが表面とみなされるかを定義します。詳細は § 23.2.5.4 ポリゴンラスタライズ を参照してください:

"ccw"

フレームバッファ座標が反時計回りに並ぶ頂点を持つポリゴンが表面とみなされます。

"cw"

フレームバッファ座標が時計回りに並ぶ頂点を持つポリゴンが表面とみなされます。

enum GPUCullMode {
    "none",
    "front",
    "back",
};

GPUPrimitiveTopology は、GPURenderPipeline で描画コールを行う際にどのポリゴンがカリングされるかを定義します。詳細は § 23.2.5.4 ポリゴンラスタライズ を参照してください:

"none"

ポリゴンは一切破棄されません。

"front"

表面ポリゴンが破棄されます。

"back"

裏面ポリゴンが破棄されます。

注: GPUFrontFace および GPUCullMode は、"point-list""line-list""line-strip" トポロジーには影響しません。

10.3.3. マルチサンプル状態

dictionary GPUMultisampleState {
    GPUSize32 count = 1;
    GPUSampleMask mask = 0xFFFFFFFF;
    boolean alphaToCoverageEnabled = false;
};

GPUMultisampleState には以下のメンバーがあり、GPURenderPipeline がレンダーパスのマルチサンプル付きアタッチメントとどのように相互作用するかを記述します。

count, GPUSize32、デフォルト値 1

ピクセルごとのサンプル数。このGPURenderPipeline は、アタッチメントテクスチャ (colorAttachments および depthStencilAttachment) の sampleCount が一致するものとだけ互換性があります。

mask, GPUSampleMask、デフォルト値 0xFFFFFFFF

どのサンプルに書き込むかを決定するマスク。

alphaToCoverageEnabled, boolean、デフォルト値 false

trueの場合、フラグメントのアルファチャンネルでサンプルカバレッジマスクを生成することを示します。

GPUMultisampleStateの検証(descriptor) 引数:

デバイスタイムラインの手順:

  1. 以下すべての条件を満たせば true を返す:

    • descriptor.count は 1 または 4 でなければならない。

    • descriptor.alphaToCoverageEnabledtrue の場合:

      • descriptor.count > 1 でなければならない。

10.3.4. フラグメント状態

dictionary GPUFragmentState
         : GPUProgrammableStage {
    required sequence<GPUColorTargetState?> targets;
};
targets, sequence<GPUColorTargetState?>

このパイプラインが書き込むカラ―ターゲットのフォーマットや動作を定義するGPUColorTargetStateのリスト。

GPUFragmentStateの検証(device, descriptor, layout)

引数:

デバイスタイムラインの手順:

  1. 以下の要件全てを満たす場合、true を返す:

GPUFragmentStateのカラ―アタッチメントのバイト/サンプルの検証(device, targets)

引数:

デバイスタイムラインの手順:

  1. formats を空のlist<GPUTextureFormat?>とする。

  2. targets の各 target について:

    1. targetundefined なら、処理を続ける。

    2. Append target.formatformats に追加する。

  3. カラ―アタッチメントのバイト/サンプルの計算(formats) が device.[[limits]].maxColorAttachmentBytesPerSample 以下でなければならない。

注: フラグメントシェーダーは、パイプラインで使用される値よりも多くの値を出力する場合があります。その場合、値は無視されます。

GPUBlendComponent component は論理device deviceで下記要件を満たす場合、有効なGPUBlendComponentです:

10.3.5. カラ―ターゲット状態

dictionary GPUColorTargetState {
    required GPUTextureFormat format;

    GPUBlendState blend;
    GPUColorWriteFlags writeMask = 0xF;  // GPUColorWrite.ALL
};
format, GPUTextureFormat

このカラ―ターゲットの GPUTextureFormat。 パイプラインは、対応するカラ―アタッチメントにこのフォーマットの GPUTextureView を使う GPURenderPassEncoder とだけ互換性があります。

blend, GPUBlendState

このカラ―ターゲットのブレンディングの挙動。未定義の場合、ブレンディングは無効化されます。

writeMask, GPUColorWriteFlags、デフォルト値 0xF

このカラ―ターゲットへの描画時に、どのチャンネルに書き込むかを制御するビットマスク。

dictionary GPUBlendState {
    required GPUBlendComponent color;
    required GPUBlendComponent alpha;
};
color, GPUBlendComponent

対応するレンダーターゲットのカラーチャンネルのブレンディング挙動を定義します。

alpha, GPUBlendComponent

対応するレンダーターゲットのアルファチャンネルのブレンディング挙動を定義します。

typedef [EnforceRange] unsigned long GPUColorWriteFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUColorWrite {
    const GPUFlagsConstant RED   = 0x1;
    const GPUFlagsConstant GREEN = 0x2;
    const GPUFlagsConstant BLUE  = 0x4;
    const GPUFlagsConstant ALPHA = 0x8;
    const GPUFlagsConstant ALL   = 0xF;
};
10.3.5.1. ブレンド状態
dictionary GPUBlendComponent {
    GPUBlendOperation operation = "add";
    GPUBlendFactor srcFactor = "one";
    GPUBlendFactor dstFactor = "zero";
};

GPUBlendComponent には以下のメンバーがあり、フラグメントのカラーおよびアルファ成分のブレンド方法を記述します:

operation, GPUBlendOperation、デフォルト値 "add"

ターゲットアタッチメント成分に書き込まれる値の計算に使われる GPUBlendOperation を定義します。

srcFactor, GPUBlendFactor、デフォルト値 "one"

フラグメントシェーダーからの値に対して行う GPUBlendFactor の操作を定義します。

dstFactor, GPUBlendFactor、デフォルト値 "zero"

ターゲットアタッチメントからの値に対して行う GPUBlendFactor の操作を定義します。

以下の表は、あるフラグメント位置でのカラー成分を記述するための記法を示します:

RGBAsrc カラ―アタッチメントに対してフラグメントシェーダーが出力したカラー。 シェーダーがアルファチャンネルを返さない場合、src-alpha ブレンドファクターは使用できません。
RGBAsrc1 カラ―アタッチメントに対して、"@blend_src" 属性1 のフラグメントシェーダーのカラー出力。 シェーダーがアルファチャンネルを返さない場合、src1-alpha ブレンドファクターは使用できません。
RGBAdst カラ―アタッチメントに現在入っているカラー。 グリーン/ブルー/アルファチャンネルがない場合は、デフォルトで 0, 0, 1 となります。
RGBAconst 現在の [[blendConstant]]
RGBAsrcFactor srcFactor で定義されたソースブレンドファクター成分。
RGBAdstFactor dstFactor で定義されたデスティネーションブレンドファクター成分。
enum GPUBlendFactor {
    "zero",
    "one",
    "src",
    "one-minus-src",
    "src-alpha",
    "one-minus-src-alpha",
    "dst",
    "one-minus-dst",
    "dst-alpha",
    "one-minus-dst-alpha",
    "src-alpha-saturated",
    "constant",
    "one-minus-constant",
    "src1",
    "one-minus-src1",
    "src1-alpha",
    "one-minus-src1-alpha",
};

GPUBlendFactor はソースまたはデスティネーションのブレンドファクターがどのように計算されるかを定義します:

GPUBlendFactor ブレンドファクター RGBA 成分 機能
"zero" (0, 0, 0, 0)
"one" (1, 1, 1, 1)
"src" (Rsrc, Gsrc, Bsrc, Asrc)
"one-minus-src" (1 - Rsrc, 1 - Gsrc, 1 - Bsrc, 1 - Asrc)
"src-alpha" (Asrc, Asrc, Asrc, Asrc)
"one-minus-src-alpha" (1 - Asrc, 1 - Asrc, 1 - Asrc, 1 - Asrc)
"dst" (Rdst, Gdst, Bdst, Adst)
"one-minus-dst" (1 - Rdst, 1 - Gdst, 1 - Bdst, 1 - Adst)
"dst-alpha" (Adst, Adst, Adst, Adst)
"one-minus-dst-alpha" (1 - Adst, 1 - Adst, 1 - Adst, 1 - Adst)
"src-alpha-saturated" (min(Asrc, 1 - Adst), min(Asrc, 1 - Adst), min(Asrc, 1 - Adst), 1)
"constant" (Rconst, Gconst, Bconst, Aconst)
"one-minus-constant" (1 - Rconst, 1 - Gconst, 1 - Bconst, 1 - Aconst)
"src1" (Rsrc1, Gsrc1, Bsrc1, Asrc1) dual-source-blending
"one-minus-src1" (1 - Rsrc1, 1 - Gsrc1, 1 - Bsrc1, 1 - Asrc1)
"src1-alpha" (Asrc1, Asrc1, Asrc1, Asrc1)
"one-minus-src1-alpha" (1 - Asrc1, 1 - Asrc1, 1 - Asrc1, 1 - Asrc1)
enum GPUBlendOperation {
    "add",
    "subtract",
    "reverse-subtract",
    "min",
    "max",
};

GPUBlendOperation はソースとデスティネーションのブレンドファクターを組み合わせるアルゴリズムを定義します:

GPUBlendOperation RGBA成分
"add" RGBAsrc × RGBAsrcFactor + RGBAdst × RGBAdstFactor
"subtract" RGBAsrc × RGBAsrcFactor - RGBAdst × RGBAdstFactor
"reverse-subtract" RGBAdst × RGBAdstFactor - RGBAsrc × RGBAsrcFactor
"min" min(RGBAsrc, RGBAdst)
"max" max(RGBAsrc, RGBAdst)

10.3.6. デプス・ステンシル状態

dictionary GPUDepthStencilState {
    required GPUTextureFormat format;

    boolean depthWriteEnabled;
    GPUCompareFunction depthCompare;

    GPUStencilFaceState stencilFront = {};
    GPUStencilFaceState stencilBack = {};

    GPUStencilValue stencilReadMask = 0xFFFFFFFF;
    GPUStencilValue stencilWriteMask = 0xFFFFFFFF;

    GPUDepthBias depthBias = 0;
    float depthBiasSlopeScale = 0;
    float depthBiasClamp = 0;
};

GPUDepthStencilState には以下のメンバーがあり、GPURenderPipeline がレンダーパスのdepthStencilAttachment にどのような影響を与えるかを記述します:

format, GPUTextureFormat

このGPURenderPipeline が互換性を持つdepthStencilAttachmentformat

depthWriteEnabled, boolean

このGPURenderPipelinedepthStencilAttachment の深度値を書き換えることができるかを示します。

depthCompare, GPUCompareFunction

フラグメントの深度値をdepthStencilAttachment の深度値と比較するための演算方法。

stencilFront, GPUStencilFaceState、デフォルト値 {}

表面プリミティブに対してステンシル比較・操作をどのように行うかを定義します。

stencilBack, GPUStencilFaceState、デフォルト値 {}

裏面プリミティブに対してステンシル比較・操作をどのように行うかを定義します。

stencilReadMask, GPUStencilValue、デフォルト値 0xFFFFFFFF

ステンシル比較テストを行う際に、どのdepthStencilAttachment のステンシル値ビットを読み取るかを制御するビットマスク。

stencilWriteMask, GPUStencilValue、デフォルト値 0xFFFFFFFF

ステンシル操作を行う際に、どのdepthStencilAttachment のステンシル値ビットに書き込むかを制御するビットマスク。

depthBias, GPUDepthBias、デフォルト値 0

各三角形フラグメントに加算される定数深度バイアス。詳細はバイアス付きフラグメント深度参照。

depthBiasSlopeScale, float、デフォルト値 0

三角形フラグメントの傾きに応じてスケールされる深度バイアス。詳細はバイアス付きフラグメント深度参照。

depthBiasClamp, float、デフォルト値 0

三角形フラグメントの最大深度バイアス。詳細はバイアス付きフラグメント深度参照。

注: depthBiasdepthBiasSlopeScale、 および depthBiasClamp"point-list""line-list""line-strip" プリミティブには効果がなく、0でなければなりません。

バイアス付きフラグメント深度は、depthStencilAttachment attachmentに対して GPUDepthStencilState stateを使って描画する際、以下のキュータイムラインの手順で計算されます:
  1. formatattachment.view.format とする。

  2. rformat における0より大きい最小の正の表現可能値(32ビットfloatに変換)とする。

  3. maxDepthSlope をフラグメントの深度値の水平・垂直方向の最大傾きとする。

  4. formatunormフォーマットの場合:

    1. bias(float)state.depthBias * r + state.depthBiasSlopeScale * maxDepthSlope とする。

    それ以外でformatfloatフォーマットの場合:

    1. bias(float)state.depthBias * 2^(exp(max depth in primitive) - r) + state.depthBiasSlopeScale * maxDepthSlope とする。

  5. state.depthBiasClamp > 0 の場合:

    1. biasmin(state.depthBiasClamp, bias) とする。

    それ以外で,state.depthBiasClamp < 0 の場合:

    1. biasmax(state.depthBiasClamp, bias) とする。

  6. state.depthBias0 または state.depthBiasSlopeScale0 の場合:

    1. フラグメントの深度値に fragment depth value + bias を設定する。

GPUDepthStencilStateの検証(descriptor, topology)

引数:

デバイスタイムラインの手順:

  1. 以下のすべての条件を満たした場合に限り、true を返す:

dictionary GPUStencilFaceState {
    GPUCompareFunction compare = "always";
    GPUStencilOperation failOp = "keep";
    GPUStencilOperation depthFailOp = "keep";
    GPUStencilOperation passOp = "keep";
};

GPUStencilFaceState には以下のメンバーがあり、ステンシル比較と操作の方法を記述します:

compare, GPUCompareFunction、デフォルト値 "always"

フラグメントのdepthStencilAttachmentのステンシル値に対して [[stencilReference]] の値をテストする際に使用されるGPUCompareFunction

failOp, GPUStencilOperation、デフォルト値 "keep"

compare で記述されるフラグメントステンシル比較テストに失敗した場合に実行されるGPUStencilOperation

depthFailOp, GPUStencilOperation、デフォルト値 "keep"

depthCompare で記述されるフラグメント深度比較に失敗した場合に実行されるGPUStencilOperation

passOp, GPUStencilOperation、デフォルト値 "keep"

compare で記述されるフラグメントステンシル比較テストに成功した場合に実行されるGPUStencilOperation

enum GPUStencilOperation {
    "keep",
    "zero",
    "replace",
    "invert",
    "increment-clamp",
    "decrement-clamp",
    "increment-wrap",
    "decrement-wrap",
};

GPUStencilOperation では以下の操作を定義します:

"keep"

現在のステンシル値を保持します。

"zero"

ステンシル値を 0 に設定します。

"replace"

ステンシル値を [[stencilReference]] に設定します。

"invert"

現在のステンシル値をビット反転します。

"increment-clamp"

現在のステンシル値をインクリメントし、depthStencilAttachmentの ステンシルアスペクトの最大表現値までクランプします。

"decrement-clamp"

現在のステンシル値をデクリメントし、0までクランプします。

"increment-wrap"

現在のステンシル値をインクリメントし、値が最大表現値を超えた場合はゼロにラップします(depthStencilAttachmentの ステンシルアスペクト)。

"decrement-wrap"

現在のステンシル値をデクリメントし、値が0未満になった場合は depthStencilAttachmentの ステンシルアスペクトの最大表現値にラップします。

10.3.7. バーテックス状態

enum GPUIndexFormat {
    "uint16",
    "uint32",
};

インデックスフォーマットは、バッファ内のインデックス値のデータ型を決定し、ストリッププリミティブトポロジー ("line-strip" または "triangle-strip") で使用される場合は、プリミティブリスタート値も指定します。 プリミティブリスタート値は、 どのインデックス値が新しいプリミティブの開始を示すか(以前のインデックス頂点でストリップを継続するのではなく)を示します。

GPUPrimitiveState でストリッププリミティブトポロジーを指定する場合、インデックス付き描画に使う場合は stripIndexFormat を必ず指定し、パイプライン生成時に使用される プリミティブリスタート値が分かるようにします。 GPUPrimitiveState でリストトポロジーを指定する場合は、 インデックス付き描画時にsetIndexBuffer() で渡したインデックスフォーマットを使います。

インデックスフォーマット バイトサイズ プリミティブリスタート値
"uint16" 2 0xFFFF
"uint32" 4 0xFFFFFFFF
10.3.7.1. バーテックスフォーマット

GPUVertexFormat はバーテックス属性のデータがバーテックスバッファからどのように解釈・シェーダーへ公開されるかを示します。 フォーマット名は成分の順序、各成分のビット数、および成分のバーテックスデータ型を指定します。

バーテックスデータ型は、 ビット数に関係なく、同じ基本型のWGSLスカラー型にマッピングできます:

バーテックスフォーマット接頭辞 バーテックスデータ型 対応するWGSL型
uint 符号なし整数 u32
sint 符号付き整数 i32
unorm 符号なし正規化 f16, f32
snorm 符号付き正規化
float 浮動小数点

複数成分フォーマットでは "x" の後の数字が成分数を示します。バーテックスフォーマットとシェーダー型の成分数が一致しない場合は、成分が切り捨てられるかデフォルト値で埋められます。

フォーマットが "unorm8x2" のバーテックス属性と、バイト値 [0x7F, 0xFF] を持つ場合、シェーダーでは以下の型でアクセスできます:
シェーダー型 シェーダー値
f16 0.5h
f32 0.5f
vec2<f16> vec2(0.5h, 1.0h)
vec2<f32> vec2(0.5f, 1.0f)
vec3<f16> vec2(0.5h, 1.0h, 0.0h)
vec3<f32> vec2(0.5f, 1.0f, 0.0f)
vec4<f16> vec2(0.5h, 1.0h, 0.0h, 1.0h)
vec4<f32> vec2(0.5f, 1.0f, 0.0f, 1.0f)

バーテックスフォーマットがシェーダーでどのように公開されるかは § 23.2.2 バーテックス処理 を参照してください。

enum GPUVertexFormat {
    "uint8",
    "uint8x2",
    "uint8x4",
    "sint8",
    "sint8x2",
    "sint8x4",
    "unorm8",
    "unorm8x2",
    "unorm8x4",
    "snorm8",
    "snorm8x2",
    "snorm8x4",
    "uint16",
    "uint16x2",
    "uint16x4",
    "sint16",
    "sint16x2",
    "sint16x4",
    "unorm16",
    "unorm16x2",
    "unorm16x4",
    "snorm16",
    "snorm16x2",
    "snorm16x4",
    "float16",
    "float16x2",
    "float16x4",
    "float32",
    "float32x2",
    "float32x3",
    "float32x4",
    "uint32",
    "uint32x2",
    "uint32x3",
    "uint32x4",
    "sint32",
    "sint32x2",
    "sint32x3",
    "sint32x4",
    "unorm10-10-10-2",
    "unorm8x4-bgra",
};
バーテックスフォーマット データ型 成分数 バイトサイズ WGSL型例
"uint8" 符号なし整数 1 1 u32
"uint8x2" 符号なし整数 2 2 vec2<u32>
"uint8x4" 符号なし整数 4 4 vec4<u32>
"sint8" 符号付き整数 1 1 i32
"sint8x2" 符号付き整数 2 2 vec2<i32>
"sint8x4" 符号付き整数 4 4 vec4<i32>
"unorm8" 符号なし正規化 1 1 f32
"unorm8x2" 符号なし正規化 2 2 vec2<f32>
"unorm8x4" 符号なし正規化 4 4 vec4<f32>
"snorm8" 符号付き正規化 1 1 f32
"snorm8x2" 符号付き正規化 2 2 vec2<f32>
"snorm8x4" 符号付き正規化 4 4 vec4<f32>
"uint16" 符号なし整数 1 2 u32
"uint16x2" 符号なし整数 2 4 vec2<u32>
"uint16x4" 符号なし整数 4 8 vec4<u32>
"sint16" 符号付き整数 1 2 i32
"sint16x2" 符号付き整数 2 4 vec2<i32>
"sint16x4" 符号付き整数 4 8 vec4<i32>
"unorm16" 符号なし正規化 1 2 f32
"unorm16x2" 符号なし正規化 2 4 vec2<f32>
"unorm16x4" 符号なし正規化 4 8 vec4<f32>
"snorm16" 符号付き正規化 1 2 f32
"snorm16x2" 符号付き正規化 2 4 vec2<f32>
"snorm16x4" 符号付き正規化 4 8 vec4<f32>
"float16" 浮動小数点 1 2 f32
"float16x2" 浮動小数点 2 4 vec2<f16>
"float16x4" 浮動小数点 4 8 vec4<f16>
"float32" 浮動小数点 1 4 f32
"float32x2" 浮動小数点 2 8 vec2<f32>
"float32x3" 浮動小数点 3 12 vec3<f32>
"float32x4" 浮動小数点 4 16 vec4<f32>
"uint32" 符号なし整数 1 4 u32
"uint32x2" 符号なし整数 2 8 vec2<u32>
"uint32x3" 符号なし整数 3 12 vec3<u32>
"uint32x4" 符号なし整数 4 16 vec4<u32>
"sint32" 符号付き整数 1 4 i32
"sint32x2" 符号付き整数 2 8 vec2<i32>
"sint32x3" 符号付き整数 3 12 vec3<i32>
"sint32x4" 符号付き整数 4 16 vec4<i32>
"unorm10-10-10-2" 符号なし正規化 4 4 vec4<f32>
"unorm8x4-bgra" 符号なし正規化 4 4 vec4<f32>
enum GPUVertexStepMode {
    "vertex",
    "instance",
};

ステップモードは、現在のバーテックスまたはインスタンスインデックスに基づいて、バーテックスバッファデータのアドレス計算方法を設定します:

"vertex"

各バーテックスごとにarrayStride でアドレスが進み、 インスタンスごとにリセットされます。

"instance"

各インスタンスごとにarrayStride でアドレスが進みます。

dictionary GPUVertexState
         : GPUProgrammableStage {
    sequence<GPUVertexBufferLayout?> buffers = [];
};
buffers, sequence<GPUVertexBufferLayout?>、デフォルト値 []

このパイプラインで使用するバーテックスバッファのバーテックス属性データのレイアウトを定義する GPUVertexBufferLayout のリスト。

バーテックスバッファは概念的には バッファメモリへの構造体の配列としてのビューです。 arrayStride は、その配列の要素間のバイト単位のストライドです。 バーテックスバッファの各要素は、メモリレイアウトが attributes で定義された構造体のようなもので、 それぞれが構造体のメンバーとなります。

GPUVertexAttributeformatoffset (バイト単位) を構造体内の位置として記述します。

各属性はバーテックスシェーダーで個別の入力として表れ、それぞれ数値のlocationにバインドされます。 このlocationshaderLocation で指定され、GPUVertexState 内で一意でなければなりません。

dictionary GPUVertexBufferLayout {
    required GPUSize64 arrayStride;
    GPUVertexStepMode stepMode = "vertex";
    required sequence<GPUVertexAttribute> attributes;
};
arrayStride, GPUSize64

この配列の要素間のバイト単位のストライド。

stepMode, GPUVertexStepMode、デフォルト値 "vertex"

この配列の各要素が頂点ごとのデータかインスタンスごとのデータか。

attributes, 型 sequence<GPUVertexAttribute>

各要素内のバーテックス属性のレイアウトを定義する配列。

dictionary GPUVertexAttribute {
    required GPUVertexFormat format;
    required GPUSize64 offset;

    required GPUIndex32 shaderLocation;
};
format, GPUVertexFormat

この属性のGPUVertexFormat

offset, GPUSize64

その属性のデータが要素の先頭から何バイト目か。

shaderLocation, GPUIndex32

この属性に関連付けられる数値のlocationで、vertex.module で宣言する "@location" 属性 に対応します。

GPUVertexBufferLayoutの検証(device, descriptor)

引数:

デバイスタイムラインの手順:

  1. 以下のすべての条件を満たした場合に限り、trueを返す:

GPUVertexStateの検証(device, descriptor, layout)

引数:

デバイスタイムラインの手順:

  1. entryPointget the entry point(VERTEX, descriptor) とする。

  2. Assert entryPointnull でないこと。

  3. 以下の手順のすべての要件を満たさなければならない。

    1. GPUProgrammableStageの検証(VERTEX, descriptor, layout, device) が成功すること。

    2. descriptor.buffers.sizedevice.[[device]].[[limits]].maxVertexBuffers 以下であること。

    3. リスト descriptor.buffers の各 vertexBuffer レイアウト記述子が GPUVertexBufferLayoutの検証(device, vertexBuffer) をパスすること。

    4. すべての vertexBuffer.attributes.size の合計が descriptor.buffers 全体で device.[[device]].[[limits]].maxVertexAttributes 以下であること。

    5. エントリポイント entryPoint静的に使用される各バーテックス属性宣言 (location location、型 T) について、 descriptor.buffers[i]? .attributes[j] .shaderLocation == location となる組がちょうど1つ存在しなければならない。

      その GPUVertexAttributeattrib とする。

    6. Tattrib.formatバーテックスデータ型と互換性があること:

      "unorm", "snorm", "float"

      Tf32 または vecN<f32> でなければならない。

      "uint"

      Tu32 または vecN<u32> でなければならない。

      "sint"

      Ti32 または vecN<i32> でなければならない。

11. コピー

11.1. バッファコピー

バッファコピー操作は生のバイト単位で行われます。

WebGPUは「バッファ化」された GPUCommandEncoder コマンドを提供します:

および「即時」 GPUQueue 操作:

11.2. テクセルコピー

テクセルコピー 操作はバイトではなくテクスチャ/「画像」データを操作します。

WebGPU は「バッファ化された」 GPUCommandEncoder コマンドを提供します:

および「即時」の GPUQueue 操作:

テクセルコピーでは、宛先のテクセルブロックに書き込まれるバイトは、ソースの値と同等の 同等のテクセル表現 を持ちます。

テクセルコピーは、ソース内の有効で有限かつ非サブノーマルな数値が宛先で同じ数値になることのみを保証します。 具体的には、テクセルブロックはそれらの値のみを保持するようにデコードされ再エンコードされる場合があります。 複数のバイト表現が可能な場合、表現の選択は実装依存です。

注: RENDER_ATTACHMENT または STORAGE_BINDING をサポートするフォーマットでは、 これは WGSL シェーダーを使用してテクスチャに書き込むことに類似していると考えられ、実装としてそのように行われる場合があります。 一般に、WGSL の浮動小数点挙動 が観測されることがあります。

以下の定義がこれらのメソッドで使われます:

11.2.1. GPUTexelCopyBufferLayout

"GPUTexelCopyBufferLayout" はバイト配列(GPUBuffer または AllowSharedBufferSource)の中のテクセルのレイアウトを "テクセルコピー"操作で記述します。

dictionary GPUTexelCopyBufferLayout {
    GPUSize64 offset = 0;
    GPUSize32 bytesPerRow;
    GPUSize32 rowsPerImage;
};

テクセル画像は1つ以上のテクセルブロックの行から構成され、ここではテクセルブロック行と呼びます。 各テクセルブロック行は同じ数のテクセルブロックを含み、 1つのテクセル画像内のすべてのテクセルブロックは同じGPUTextureFormatです。

GPUTexelCopyBufferLayout は、線形メモリ内のテクセル画像のレイアウトです。 テクスチャとGPUBuffer間でデータをコピーする場合や、 GPUQueueからテクスチャに書き込む場合に使用されます。

バイト配列とテクスチャ間のコピー操作は常にテクセルブロック単位で行われます。 テクセルブロックの一部のみを更新することはできません。

テクセルブロックは各テクセルブロック行内で密に配置されており、 メモリレイアウト上、各テクセルブロックは直前のテクセルブロックの直後に続きます(パディングなし)。 これは特定アスペクトのコピーdepth-or-stencil formatテクスチャへの/からのコピー)にも当てはまります。 ステンシル値はバイト配列として密に配置され、 深度値は対応する型("depth16unorm"や"depth32float")の配列として密に配置されます。

offset, GPUSize64、デフォルト値 0

テクセルデータソース(例:GPUTexelCopyBufferInfo.buffer)の先頭からテクセルデータの開始位置までのバイトオフセット。

bytesPerRow, GPUSize32

テクセルブロック行の先頭から次のテクセルブロック行までのバイト単位のストライド。

複数のテクセルブロック行(コピーの高さや深さが1ブロックを超える場合)では必須。

rowsPerImage, GPUSize32

1つのテクスチャテクセル画像あたりのテクセルブロック行の数。 rowsPerImage × bytesPerRow は各テクセル画像の先頭から次のテクセル画像までのバイト単位のストライドです。

複数のテクセル画像(コピー深度が1を超える場合)では必須。

11.2.2. GPUTexelCopyBufferInfo

"GPUTexelCopyBufferInfo" は「info」(GPUBufferGPUTexelCopyBufferLayout)を "テクセルコピー"操作のバッファのソースまたはデスティネーションとして記述します。 copySizeと合わせて、GPUBuffer内のテクセル領域のフットプリントを記述します。

dictionary GPUTexelCopyBufferInfo
         : GPUTexelCopyBufferLayout {
    required GPUBuffer buffer;
};
buffer, GPUBuffer

コピーされるテクセルデータを保持する、またはコピー後のテクセルデータが格納されるバッファ(メソッドにより異なる)。

GPUTexelCopyBufferInfoの検証

引数:

戻り値: boolean

デバイスタイムラインの手順:

  1. 以下すべての条件を満たした場合に限りtrueを返す:

11.2.3. GPUTexelCopyTextureInfo

"GPUTexelCopyTextureInfo" は「info」(GPUTextureなど) を "テクセルコピー"操作のテクスチャのソースまたはデスティネーションとして記述します。 copySizeと合わせて、テクスチャのサブ領域 (同じミップマップレベル上の1つ以上の連続したテクスチャサブリソース)を記述します。

dictionary GPUTexelCopyTextureInfo {
    required GPUTexture texture;
    GPUIntegerCoordinate mipLevel = 0;
    GPUOrigin3D origin = {};
    GPUTextureAspect aspect = "all";
};
texture, GPUTexture

コピー元またはコピー先のテクスチャ。

mipLevel, GPUIntegerCoordinate、デフォルト値 0

コピー元またはコピー先のtextureのミップマップレベル。

origin, GPUOrigin3D、デフォルト値 {}

コピーの原点(コピー元またはコピー先のテクスチャサブ領域の最小コーナー)。 copySizeと合わせてコピーサブ領域全体を定義します。

aspect, GPUTextureAspect、デフォルト値 "all"

コピー元またはコピー先のtextureのどのアスペクトをコピーするかを定義します。

テクスチャコピーサブ領域は、GPUTexelCopyTextureInfo copyTextureのdepth sliceまたはarray layerindexに対して、以下の手順で決定されます:
  1. texturecopyTexture.textureとする。

  2. texture.dimension が以下の場合:

    1d
    1. Assert index0であること

    2. depthSliceOrLayertextureとする

    2d

    depthSliceOrLayertextureのarray layerindexとする

    3d

    depthSliceOrLayertextureのdepth sliceindexとする

  3. textureMipdepthSliceOrLayerのミップレベルcopyTexture.mipLevelとする。

  4. textureMipcopyTexture.aspectを返す。

テクセルブロックバイトオフセットは、GPUTexelCopyBufferLayout bufferLayoutで記述されるデータの、GPUTexture textureのdepth sliceまたはarray layerzテクセルブロック x, yに対して以下の手順で決定されます:
  1. blockBytestexture.formatテクセルブロックコピーのフットプリントとする。

  2. imageOffset を (z × bufferLayout.rowsPerImage × bufferLayout.bytesPerRow) + bufferLayout.offset とする。

  3. rowOffset を (y × bufferLayout.bytesPerRow) + imageOffsetとする。

  4. blockOffset を (x × blockBytes) + rowOffsetとする。

  5. blockOffsetを返す。

GPUTexelCopyTextureInfoの検証(texelCopyTextureInfo, copySize)

引数:

戻り値: boolean

デバイスタイムラインの手順:

  1. blockWidthtexelCopyTextureInfo.texture.formatテクセルブロック幅とする。

  2. blockHeighttexelCopyTextureInfo.texture.formatテクセルブロック高さとする。

  3. 以下すべての条件を満たした場合に限りtrueを返す:

テクスチャバッファコピーの検証(texelCopyTextureInfo, bufferLayout, dataLength, copySize, textureUsage, aligned)

引数:

戻り値: boolean

デバイスタイムラインの手順:

  1. texturetexelCopyTextureInfo.textureとする

  2. aspectSpecificFormat = texture.formatとする

  3. offsetAlignment = texture.formatテクセルブロックコピーのフットプリントとする。

  4. 以下すべての条件を満たした場合に限りtrueを返す:

    1. GPUTexelCopyTextureInfoの検証(texelCopyTextureInfo, copySize) が trueを返すこと。

    2. texture.sampleCount が1であること。

    3. texture.usagetextureUsageが含まれていること。

    4. texture.formatdepth-or-stencil formatの場合:

      1. texelCopyTextureInfo.aspecttexture.formatの単一アスペクトを参照していること。

      2. textureUsageが以下の場合:

        COPY_SRC

        そのアスペクトがテクセルコピーの有効なソースである必要があります(§ 26.1.2 デプスステンシルフォーマット参照)。

        COPY_DST

        そのアスペクトがテクセルコピーの有効なデスティネーションである必要があります(§ 26.1.2 デプスステンシルフォーマット参照)。

      3. aspectSpecificFormatアスペクト固有フォーマットに設定(§ 26.1.2 デプスステンシルフォーマット参照)。

      4. offsetAlignmentを4に設定。

    5. alignedtrueの場合:

      1. bufferLayout.offsetoffsetAlignmentの倍数であること。

    6. リニアテクスチャデータの検証(bufferLayout, dataLength, aspectSpecificFormat, copySize)が成功すること。

11.2.4. GPUCopyExternalImageDestInfo

WebGPUのテクスチャは生の数値データを保持しており、色を説明するセマンティックなメタデータはタグ付けされていません。 ただし、copyExternalImageToTexture() は色情報を持つソースからコピーを行います。

GPUCopyExternalImageDestInfo」 は、「copyExternalImageToTexture()」操作の「dest」すなわち「宛先」に関する「info」を表します。 これはGPUTexelCopyTextureInfo であり、さらに色空間/エンコーディングおよびアルファプリマルチプライ情報のメタデータがタグ付けされているため、コピー時にセマンティックな色データが保持されます。 このメタデータはコピー操作の意味論のみに影響し、宛先となるテクスチャオブジェクト自体の状態や意味論には影響しません。

dictionary GPUCopyExternalImageDestInfo
         : GPUTexelCopyTextureInfo {
    PredefinedColorSpace colorSpace = "srgb";
    boolean premultipliedAlpha = false;
};
colorSpace 型は PredefinedColorSpace、デフォルトは "srgb"

宛先テクスチャへデータをエンコードする際に使われる色空間とエンコーディングを記述します。

この変換により、フォーマットが表現できる場合は [0, 1] の範囲外の値がターゲットテクスチャに書き込まれる場合があります。 そうでない場合、結果はターゲットテクスチャフォーマットの範囲にクランプされます。

注: colorSpace がソース画像と一致している場合、変換は不要かもしれません。§ 3.11.2 色空間変換の省略を参照してください。

premultipliedAlpha型は boolean、デフォルトは false

テクスチャに書き込まれるデータのRGBチャンネルが、アルファチャンネルでプリマルチプライされるかどうかを記述します。

このオプションが true かつ source もプリマルチプライされている場合、対応するアルファ値を超えていてもソースのRGB値は保持されなければなりません。

注: premultipliedAlpha がソース画像と一致している場合、変換は不要かもしれません。§ 3.11.2 色空間変換の省略を参照してください。

11.2.5. GPUCopyExternalImageSourceInfo

GPUCopyExternalImageSourceInfo」 は、「copyExternalImageToTexture()」操作の「source」すなわち「ソース」に関する「info」を表します。

typedef (ImageBitmap or
         ImageData or
         HTMLImageElement or
         HTMLVideoElement or
         VideoFrame or
         HTMLCanvasElement or
         OffscreenCanvas) GPUCopyExternalImageSource;

dictionary GPUCopyExternalImageSourceInfo {
    required GPUCopyExternalImageSource source;
    GPUOrigin2D origin = {};
    boolean flipY = false;
};

GPUCopyExternalImageSourceInfo には以下のメンバーがあります:

source, GPUCopyExternalImageSource

テクセルコピーのソース。 コピー元データはcopyExternalImageToTexture() 発行時点でキャプチャされます。ソースサイズは外部ソース寸法の表に従って決まります。

origin, GPUOrigin2D、デフォルト値 {}

コピーの原点(コピー元サブ領域の最小(左上)コーナー)。 copySizeと合わせてコピーサブ領域全体を定義します。

flipY, boolean、デフォルト値 false

ソース画像が垂直方向に反転されるか否かを記述します。

このオプションがtrueの場合、コピーは上下逆転されます(ソース領域の最下行がコピー先領域の最初の行になる等)。 origin オプションは依然としてソース画像の左上基準で、下方向に増加します。

外部ソースをテクスチャの作成やコピー時に使う場合、外部ソース寸法 はソースタイプごとに以下の表で定義されます:

外部ソース型 寸法
ImageBitmap ImageBitmap.width, ImageBitmap.height
HTMLImageElement HTMLImageElement.naturalWidth, HTMLImageElement.naturalHeight
HTMLVideoElement フレームの本来の幅, フレームの本来の高さ
VideoFrame VideoFrame.displayWidth, VideoFrame.displayHeight
ImageData ImageData.width, ImageData.height
HTMLCanvasElement または OffscreenCanvasCanvasRenderingContext2D または GPUCanvasContext使用時) HTMLCanvasElement.width, HTMLCanvasElement.height
HTMLCanvasElement または OffscreenCanvasWebGLRenderingContextBase使用時) WebGLRenderingContextBase.drawingBufferWidth, WebGLRenderingContextBase.drawingBufferHeight
HTMLCanvasElement または OffscreenCanvasImageBitmapRenderingContext使用時) ImageBitmapRenderingContextの内部出力ビットマップ ImageBitmap.width, ImageBitmap.height

11.2.6. サブルーチン

GPUTexelCopyTextureInfo物理サブリソースサイズ

引数:

戻り値: GPUExtent3D

texelCopyTextureInfoGPUTexelCopyTextureInfo物理サブリソースサイズは以下のように算出されます:

そのwidthheightdepthOrArrayLayersはそれぞれ、 texelCopyTextureInfo.textureサブリソース物理ミップレベル固有テクスチャ範囲の 幅、高さ、深さ(ミップマップレベル texelCopyTextureInfo.mipLevel)。

リニアテクスチャデータの検証(layout, byteSize, format, copyExtent)

引数:

GPUTexelCopyBufferLayout layout

リニアテクスチャデータのレイアウト。

GPUSize64 byteSize

リニアデータの合計サイズ(バイト単位)。

GPUTextureFormat format

テクスチャのフォーマット。

GPUExtent3D copyExtent

コピーするテクスチャの範囲。

デバイスタイムラインの手順:

  1. 以下を定義:

  2. 以下の入力検証要件を満たさない場合は失敗:

    • heightInBlocks > 1の場合、 layout.bytesPerRow を指定しなければならない。

    • copyExtent.depthOrArrayLayers > 1の場合、 layout.bytesPerRowlayout.rowsPerImage を指定しなければならない。

    • 指定されている場合、layout.bytesPerRowbytesInLastRowでなければならない。

    • 指定されている場合、layout.rowsPerImageheightInBlocksでなければならない。

  3. 以下を定義:

    注: これらのデフォルト値は常に0倍されるため効果はありません。

  4. requiredBytesInCopy = 0とする。

  5. copyExtent.depthOrArrayLayers > 0の場合:

    1. requiredBytesInCopybytesPerRow × rowsPerImage × (copyExtent.depthOrArrayLayers − 1) を加算する。

    2. heightInBlocks > 0の場合:

      1. requiredBytesInCopybytesPerRow × (heightInBlocks − 1) + bytesInLastRow を加算する。

  6. 以下の条件を満たさない場合は失敗:

    • レイアウトがリニアデータ内に収まること: layout.offset + requiredBytesInCopybyteSize

テクスチャコピー範囲の検証

引数:

GPUTexelCopyTextureInfo texelCopyTextureInfo

コピー先のテクスチャサブリソースとコピー原点。

GPUExtent3D copySize

テクスチャのサイズ。

デバイスタイムラインの手順:

  1. blockWidth = texelCopyTextureInfo.texture.formatテクセルブロック幅とする。

  2. blockHeight = texelCopyTextureInfo.texture.formatテクセルブロック高さとする。

  3. subresourceSize = texelCopyTextureInfoGPUTexelCopyTextureInfo物理サブリソースサイズとする。

  4. 以下すべての条件が満たされているか判定して返す:

    注: テクスチャコピー範囲は物理(切り上げ)サイズで検証されるため 圧縮フォーマットの場合、 テクスチャ内に完全に収まらないブロックへのコピーも可能です。

2つのGPUTextureFormat format1format2コピー互換であるのは以下の場合:
テクスチャコピーのサブリソース集合(texelCopyTextureInfo, copySize) は、texture = texelCopyTextureInfo.texture のサブリソースのうち、各サブリソースsが以下を満たす部分集合とする:

12. コマンドバッファ

コマンドバッファは、GPUコマンドキュータイムラインのステップブロック)の事前記録リストであり、 GPUQueueに送信して実行できます。 各GPUコマンドは、 キュータイムライン上で実行される作業(状態設定、描画、リソースコピーなど)を表します。

GPUCommandBuffer は一度しか送信できず、送信時に無効化されます。 複数回送信で描画コマンドを再利用したい場合は、GPURenderBundleを利用してください。

12.1. GPUCommandBuffer

[Exposed=(Window, Worker), SecureContext]
interface GPUCommandBuffer {
};
GPUCommandBuffer includes GPUObjectBase;

GPUCommandBuffer には以下のデバイスタイムラインプロパティがあります:

[[command_list]], 型 list<GPU command>, readonly

リストは、 このコマンドバッファがサブミットされる際に キュータイムライン上で実行される GPUコマンドのリストです。

[[renderState]], 型 RenderState, 初期値 null

実行中のレンダーパスコマンドで使用される現在の状態。

12.1.1. コマンドバッファ生成

dictionary GPUCommandBufferDescriptor
         : GPUObjectDescriptorBase {
};

13. コマンドエンコード

13.1. GPUCommandsMixin

GPUCommandsMixin は、コマンドをエンコードするすべてのインターフェイスに共通する状態を定義します。 メソッドはありません。

interface mixin GPUCommandsMixin {
};

GPUCommandsMixin には以下のデバイスタイムラインプロパティがあります:

[[state]], 型 エンコーダ状態, 初期値 "open"

エンコーダの現在の状態。

[[commands]], 型 list<GPUコマンド>, 初期値 []

このコマンドを含むGPUCommandBufferが送信されたとき キュータイムラインで実行されるリストGPUコマンドです。

エンコーダ状態は以下のいずれかです:

"open"

エンコーダは新しいコマンドのエンコードに利用可能です。

"locked"

エンコーダは子エンコーダによってロックされているため利用できません: これはGPUCommandEncoder であり、GPURenderPassEncoder またはGPUComputePassEncoder がアクティブな場合です。 パスが終了すると、エンコーダは再び"open"になります。

この状態でコマンドを発行すると、エンコーダを無効化します。

"ended"

エンコーダは終了しており、新しいコマンドはエンコードできません。

この状態でコマンドを発行すると、検証エラーを生成します。

エンコーダ状態の検証GPUCommandsMixin encoderについて以下のデバイスタイムライン手順を実行:
  1. もしencoder.[[state]] が以下のいずれかの場合:

    "open"

    true を返す。

    "locked"

    エンコーダを無効化し、falseを返す。

    "ended"

    検証エラーを生成し、falseを返す。

コマンドのエンキューGPUCommandsMixin encoderGPUコマンドcommandのステップを発行する場合、以下のデバイスタイムライン手順を実行:
  1. Append commandencoder.[[commands]]に追加。

  2. commandGPUCommandBufferの一部として実行される場合:

    1. commandのステップを実行する。

13.2. GPUCommandEncoder

[Exposed=(Window, Worker), SecureContext]
interface GPUCommandEncoder {
    GPURenderPassEncoder beginRenderPass(GPURenderPassDescriptor descriptor);
    GPUComputePassEncoder beginComputePass(optional GPUComputePassDescriptor descriptor = {});

    undefined copyBufferToBuffer(
        GPUBuffer source,
        GPUBuffer destination,
        optional GPUSize64 size);
    undefined copyBufferToBuffer(
        GPUBuffer source,
        GPUSize64 sourceOffset,
        GPUBuffer destination,
        GPUSize64 destinationOffset,
        optional GPUSize64 size);

    undefined copyBufferToTexture(
        GPUTexelCopyBufferInfo source,
        GPUTexelCopyTextureInfo destination,
        GPUExtent3D copySize);

    undefined copyTextureToBuffer(
        GPUTexelCopyTextureInfo source,
        GPUTexelCopyBufferInfo destination,
        GPUExtent3D copySize);

    undefined copyTextureToTexture(
        GPUTexelCopyTextureInfo source,
        GPUTexelCopyTextureInfo destination,
        GPUExtent3D copySize);

    undefined clearBuffer(
        GPUBuffer buffer,
        optional GPUSize64 offset = 0,
        optional GPUSize64 size);

    undefined resolveQuerySet(
        GPUQuerySet querySet,
        GPUSize32 firstQuery,
        GPUSize32 queryCount,
        GPUBuffer destination,
        GPUSize64 destinationOffset);

    GPUCommandBuffer finish(optional GPUCommandBufferDescriptor descriptor = {});
};
GPUCommandEncoder includes GPUObjectBase;
GPUCommandEncoder includes GPUCommandsMixin;
GPUCommandEncoder includes GPUDebugCommandsMixin;

13.2.1. コマンドエンコーダ生成

dictionary GPUCommandEncoderDescriptor
         : GPUObjectDescriptorBase {
};
createCommandEncoder(descriptor)

GPUCommandEncoder を生成します。

呼び出し対象: GPUDevice this.

引数:

GPUDevice.createCommandEncoder(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUCommandEncoderDescriptor 作成するGPUCommandEncoder の記述。

戻り値: GPUCommandEncoder

コンテンツタイムライン手順:

  1. e! 新しいWebGPUオブジェクトを生成(this, GPUCommandEncoder, descriptor)とする。

  2. thisデバイスタイムライン初期化手順を実行する。

  3. eを返す。

デバイスタイムライン 初期化手順:
  1. 以下のいずれかの条件が満たされない場合、 検証エラーを生成し、 eを無効化して返す。

    • thislostであってはならない。

GPUCommandEncoder を生成し、バッファのクリアコマンドをエンコードし、 エンコーダをfinishしてGPUCommandBuffer を取得し、GPUQueueに送信する例。
const commandEncoder = gpuDevice.createCommandEncoder();
commandEncoder.clearBuffer(buffer);
const commandBuffer = commandEncoder.finish();
gpuDevice.queue.submit([commandBuffer]);

13.3. パスエンコード

beginRenderPass(descriptor)

descriptorで記述されたレンダーパスのエンコードを開始します。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.beginRenderPass(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPURenderPassDescriptor 生成するGPURenderPassEncoder の記述。

戻り値: GPURenderPassEncoder

コンテンツタイムライン手順:

  1. descriptor.colorAttachments の各非nullなcolorAttachmentについて:

    1. colorAttachment.clearValue が提供されていれば:

      1. ? GPUColor の形状を検証する(colorAttachment.clearValue)。

  2. 新しいGPURenderPassEncoder オブジェクトpassを生成する。

  3. thisのデバイスタイムラインで初期化手順を実行。

  4. passを返す。

デバイスタイムライン 初期化手順:
  1. エンコーダ状態の検証をthisに対して実行。falseならpassを無効化して返す。

  2. this.[[state]] を"locked"に設定。

  3. attachmentRegionsを空のリストとして用意。3Dテクスチャ用にdepthSliceも含む。

  4. descriptor.colorAttachments の各非nullなcolorAttachmentについて:

    1. [colorAttachment.view, colorAttachment.depthSlice ?? null] をattachmentRegionsに追加。

    2. colorAttachment.resolveTarget がnullでない場合:

      1. [colorAttachment.resolveTarget, undefined] をattachmentRegionsに追加。

  5. 次の要件を満たしていなければpassを無効化して返す。

    • descriptor は、デバイス this.[[device]] に対して、 有効な使用の規則を満たしていなければならない。

    • attachmentRegions 内のテクスチャ領域の集合は、互いに重なり合わない(ペアワイズで非重複)でなければならない。 すなわち、2つのテクスチャ領域が重なることは許されない。

  6. attachmentRegions内の各texture subresourceをpass.[[usage scope]] にusage=attachmentで追加。

  7. depthStencilAttachment = descriptor.depthStencilAttachmentとする。

  8. depthStencilAttachmentがnullでなければ:

    1. depthStencilView = depthStencilAttachment.viewとする。

    2. depthのみのsubresourceをpass.[[usage scope]] にdepthReadOnlyならattachment-read、それ以外はattachmentで追加。

    3. stencilのみのsubresourceをpass.[[usage scope]] にstencilReadOnlyならattachment-read、それ以外はattachmentで追加。

    4. pass.[[depthReadOnly]] = depthStencilAttachment.depthReadOnlyとする。

    5. pass.[[stencilReadOnly]] = depthStencilAttachment.stencilReadOnlyとする。

  9. pass.[[layout]] = パスからレンダーターゲットのレイアウトを導出(descriptor)。

  10. descriptor.timestampWrites が提供されていれば:

    1. timestampWrites = descriptor.timestampWritesとする。

    2. timestampWrites.beginningOfPassWriteIndex が提供されていれば、this.[[commands]] に以下のGPUコマンドを追加:

      1. パスコマンドの実行前に、現在のキュータイムスタンプを timestampWrites.beginningOfPassWriteIndex に書き込む。

    3. timestampWrites.endOfPassWriteIndex が提供されていれば、pass.[[endTimestampWrite]] に以下のGPUコマンドを設定:

      1. パスコマンドの実行後に、現在のキュータイムスタンプを timestampWrites.endOfPassWriteIndex に書き込む。

  11. pass.[[drawCount]] = 0に設定。

  12. pass.[[maxDrawCount]] = descriptor.maxDrawCountに設定。

  13. pass.[[maxDrawCount]] = descriptor.maxDrawCountに設定。

  14. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行する。

キュータイムライン手順:
  1. 現在実行中の[[renderState]] を新しいRenderStateにする。

  2. [[renderState]].[[colorAttachments]] = descriptor.colorAttachmentsに設定。

  3. [[renderState]].[[depthStencilAttachment]] = descriptor.depthStencilAttachmentに設定。

  4. descriptor.colorAttachments の各非nullなcolorAttachmentについて:

    1. colorView = colorAttachment.viewとする。

    2. colorView.[[descriptor]].dimension が"3d"ならcolorSubregion = colorAttachment.depthSlice、それ以外はcolorView。

    3. colorAttachment.loadOp が"load"ならcolorSubregionの内容をframebuffer memoryにロードする。

      "clear"ならframebuffer memoryのすべてのtexelをcolorAttachment.clearValueで初期化する。

  5. depthStencilAttachmentがnullでなければ:

    1. depthStencilAttachment.depthLoadOp が未指定ならdepthReadOnlyがtrueであることをAssertし、depthのsubresource内容をframebuffer memoryにロードする。

      "load"ならdepthのsubresource内容をframebuffer memoryにロードする。

      "clear"ならframebuffer memoryの全texelをdepthClearValueで初期化する。

    2. depthStencilAttachment.stencilLoadOp が未指定ならstencilReadOnlyがtrueであることをAssertし、stencilのsubresource内容をframebuffer memoryにロードする。

      "load"ならstencilのsubresource内容をframebuffer memoryにロードする。

      "clear"ならframebuffer memoryの全texelをstencilClearValueで初期化する。

注: Read-only depth-stencilアタッチメントは暗黙的に"load"操作として扱われます。read-onlyアタッチメントにはloadOp未指定である必要があるという検証はGPURenderPassDepthStencilAttachment Valid Usageで行われます。

beginComputePass(descriptor)

descriptorで記述されたコンピュートパスのエンコードを開始します。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.beginComputePass(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUComputePassDescriptor

戻り値: GPUComputePassEncoder

コンテンツタイムライン手順:

  1. 新しいGPUComputePassEncoder オブジェクトpassを生成する。

  2. thisのデバイスタイムラインで初期化手順を実行。

  3. passを返す。

デバイスタイムライン 初期化手順:
  1. エンコーダ状態の検証をthisに対して実行。falseならpassを無効化して返す。

  2. this.[[state]] を"locked"に設定。

  3. 次の要件を満たしていなければpassを無効化して返す。

  4. descriptor.timestampWrites が提供されていれば:

    1. timestampWrites = descriptor.timestampWritesとする。

    2. timestampWrites.beginningOfPassWriteIndex が提供されていれば、this.[[commands]] に以下のGPUコマンドを追加:

      1. パスコマンドの実行前に、現在のキュータイムスタンプを timestampWrites.beginningOfPassWriteIndex に書き込む。

    3. timestampWrites.endOfPassWriteIndex が提供されていれば、pass.[[endTimestampWrite]] に以下のGPUコマンドを設定:

      1. パスコマンドの実行後に、現在のキュータイムスタンプを timestampWrites.endOfPassWriteIndex に書き込む。

13.4. バッファコピーコマンド

copyBufferToBuffer() は2つのオーバーロードがあります:

copyBufferToBuffer(source, destination, size)

省略記法であり、 copyBufferToBuffer(source, 0, destination, 0, size)と同等です。

copyBufferToBuffer(source, sourceOffset, destination, destinationOffset, size)

GPUCommandEncoder に、ある GPUBuffer のサブ領域から別の GPUBuffer のサブ領域へデータをコピーするコマンドをエンコードします。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.copyBufferToBuffer(source, sourceOffset, destination, destinationOffset, size) メソッドの引数。
パラメータ Nullable Optional 説明
source GPUBuffer コピー元の GPUBuffer
sourceOffset GPUSize64 コピー開始位置(コピー元バッファのバイトオフセット)。
destination GPUBuffer コピー先の GPUBuffer
destinationOffset GPUSize64 コピー先バッファのバイトオフセット。
size GPUSize64 コピーするバイト数。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. sizeがundefinedなら、source.size − sourceOffsetに設定。

  3. 次の条件を満たしていなければ、thisを無効化して返す。

    • sourceがthisで有効に使用可能であること。

    • destinationがthisで有効に使用可能であること。

    • source.usageCOPY_SRCが含まれること。

    • destination.usageCOPY_DSTが含まれること。

    • size が4の倍数であること。

    • sourceOffsetが4の倍数であること。

    • destinationOffsetが4の倍数であること。

    • source.size ≥ (sourceOffset + size)であること。

    • destination.size ≥ (destinationOffset + size)であること。

    • sourceとdestinationが同じGPUBufferでないこと。

  4. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. sourceOffsetから始まるsourceのsizeバイトを、destinationOffsetから始まるdestinationにコピーする。

clearBuffer(buffer, offset, size)

GPUCommandEncoder に、GPUBuffer のサブ領域をゼロ埋めするコマンドをエンコードします。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.clearBuffer(buffer, offset, size) メソッドの引数。
パラメータ Nullable Optional 説明
buffer GPUBuffer クリアする GPUBuffer
offset GPUSize64 クリア領域の開始バイトオフセット。
size GPUSize64 クリアするバイト数。デフォルトは buffer のサイズ - offset。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. sizeが未指定の場合、max(0, buffer.size - offset)に設定。

  3. 次の条件を満たしていなければ、thisを無効化して返す。

    • bufferがthisで有効に使用可能であること。

    • buffer.usageCOPY_DSTが含まれること。

    • sizeが4の倍数であること。

    • offsetが4の倍数であること。

    • buffer.size ≥ (offset + size)であること。

  4. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. offsetから始まるbufferのsizeバイトを0に初期化する。

13.5. テクセルコピーコマンド

copyBufferToTexture(source, destination, copySize)

GPUCommandEncoder に、GPUBuffer のサブ領域から1つまたは複数の連続したテクスチャサブリソースのサブ領域へデータをコピーするコマンドをエンコードします。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.copyBufferToTexture(source, destination, copySize) メソッドの引数。
パラメータ Nullable Optional 説明
source GPUTexelCopyBufferInfo copySizeと組み合わせて、コピー元バッファの領域を定義します。
destination GPUTexelCopyTextureInfo copySizeと組み合わせて、コピー先テクスチャサブリソースの領域を定義します。
copySize GPUExtent3D

戻り値: undefined

コンテンツタイムライン手順:

  1. ? GPUOrigin3D の形状を検証する(destination.origin)。

  2. ? GPUExtent3D の形状を検証する(copySize)。

  3. 以降の手順は this.[[device]]Device timeline 上で実行する:

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. aligned = trueとする。

  3. dataLength = source.buffer.sizeとする。

  4. 次の条件を満たしていなければ、thisを無効化して返す。

  5. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. blockWidth = destination.textureのテクセルブロック幅。

  2. blockHeight = destination.textureのテクセルブロック高さ。

  3. dstOrigin = destination.origin

  4. dstBlockOriginX = (dstOrigin.x ÷ blockWidth)。

  5. dstBlockOriginY = (dstOrigin.y ÷ blockHeight)。

  6. blockColumns = (copySize.width ÷ blockWidth)。

  7. blockRows = (copySize.height ÷ blockHeight)。

  8. dstBlockOriginX, dstBlockOriginY, blockColumns, blockRowsが整数であることをAssert。

  9. z = 0 から copySize.depthOrArrayLayers - 1 まで繰り返し:

    1. dstSubregion = テクスチャコピーサブ領域(z + dstOrigin.z) of destination。

    2. y = 0 から blockRows - 1 まで繰り返し:

      1. x = 0 から blockColumns - 1 まで繰り返し:

        1. blockOffset = テクセルブロックバイトオフセット(source, (x, y, z), destination.texture)。

        2. dstSubregionの(dstBlockOriginX + x, dstBlockOriginY + y)テクセルブロックに、source.bufferのblockOffsetの内容を同等のテクセル表現として書き込む。

copyTextureToBuffer(source, destination, copySize)

GPUCommandEncoder に、1つまたは複数の連続したテクスチャサブリソースのサブ領域からGPUBuffer のサブ領域へデータをコピーするコマンドをエンコードします。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.copyTextureToBuffer(source, destination, copySize) メソッドの引数。
パラメータ Nullable Optional 説明
source GPUTexelCopyTextureInfo copySizeと組み合わせて、コピー元テクスチャサブリソースの領域を定義します。
destination GPUTexelCopyBufferInfo copySizeと組み合わせて、コピー先バッファの領域を定義します。
copySize GPUExtent3D

戻り値: undefined

コンテンツタイムライン手順:

  1. ? GPUOrigin3D の形状を検証する(source.origin)。

  2. ? GPUExtent3D の形状を検証する(copySize)。

  3. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する:

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. aligned = trueとする。

  3. dataLength = destination.buffer.sizeとする。

  4. 次の条件を満たしていなければ、thisを無効化して返す。

  5. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. blockWidth = source.textureのテクセルブロック幅。

  2. blockHeight = source.textureのテクセルブロック高さ。

  3. srcOrigin = source.origin

  4. srcBlockOriginX = (srcOrigin.x ÷ blockWidth)。

  5. srcBlockOriginY = (srcOrigin.y ÷ blockHeight)。

  6. blockColumns = (copySize.width ÷ blockWidth)。

  7. blockRows = (copySize.height ÷ blockHeight)。

  8. srcBlockOriginX, srcBlockOriginY, blockColumns, blockRowsが整数であることをAssert。

  9. z = 0 から copySize.depthOrArrayLayers - 1 まで繰り返し:

    1. srcSubregion = テクスチャコピーサブ領域(z + srcOrigin.z) of source。

    2. y = 0 から blockRows - 1 まで繰り返し:

      1. x = 0 から blockColumns - 1 まで繰り返し:

        1. blockOffset = テクセルブロックバイトオフセット(destination, (x, y, z), source.texture)。

        2. destination.bufferのblockOffsetに、srcSubregionの(srcBlockOriginX + x, srcBlockOriginY + y)テクセルブロックの同等のテクセル表現を書き込む。

copyTextureToTexture(source, destination, copySize)

GPUCommandEncoder に、1つまたは複数の連続したテクスチャサブリソースのサブ領域から、他の1つまたは複数の連続したテクスチャサブリソースのサブ領域へデータをコピーするコマンドをエンコードします。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.copyTextureToTexture(source, destination, copySize) メソッドの引数。
パラメータ Nullable Optional 説明
source GPUTexelCopyTextureInfo copySizeと組み合わせて、コピー元テクスチャサブリソースの領域を定義します。
destination GPUTexelCopyTextureInfo copySizeと組み合わせて、コピー先テクスチャサブリソースの領域を定義します。
copySize GPUExtent3D

戻り値: undefined

Content timeline の手順:

  1. ? GPUOrigin3D の形状を検証する(source.origin)。

  2. ? GPUOrigin3D の形状を検証する(destination.origin)。

  3. ? GPUExtent3D の形状を検証する(copySize)。

  4. 以降の手順は this.[[device]]Device timeline 上で実行する:

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. 次の条件を満たしていなければ、thisを無効化して返す。

  3. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. blockWidth = source.textureのテクセルブロック幅。

  2. blockHeight = source.textureのテクセルブロック高さ。

  3. srcOrigin = source.origin

  4. srcBlockOriginX = (srcOrigin.x ÷ blockWidth)。

  5. srcBlockOriginY = (srcOrigin.y ÷ blockHeight)。

  6. dstOrigin = destination.origin

  7. dstBlockOriginX = (dstOrigin.x ÷ blockWidth)。

  8. dstBlockOriginY = (dstOrigin.y ÷ blockHeight)。

  9. blockColumns = (copySize.width ÷ blockWidth)。

  10. blockRows = (copySize.height ÷ blockHeight)。

  11. srcBlockOriginX, srcBlockOriginY, dstBlockOriginX, dstBlockOriginY, blockColumns, blockRowsが整数であることをAssert。

  12. z = 0 から copySize.depthOrArrayLayers - 1 まで繰り返し:

    1. srcSubregion = テクスチャコピーサブ領域(z + srcOrigin.z) of source。

    2. dstSubregion = テクスチャコピーサブ領域(z + dstOrigin.z) of destination。

    3. y = 0 から blockRows - 1 まで繰り返し:

      1. x = 0 から blockColumns - 1 まで繰り返し:

        1. dstSubregionの(dstBlockOriginX + x, dstBlockOriginY + y)テクセルブロックに、srcSubregionの(srcBlockOriginX + x, srcBlockOriginY + y)テクセルブロックの同等のテクセル表現を書き込む。

13.6. クエリ

resolveQuerySet(querySet, firstQuery, queryCount, destination, destinationOffset)

GPUQuerySet のクエリ結果を、GPUBuffer の範囲に出力します。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.resolveQuerySet(querySet, firstQuery, queryCount, destination, destinationOffset) メソッドの引数。
パラメータ Nullable Optional 説明
querySet GPUQuerySet
firstQuery GPUSize32
queryCount GPUSize32
destination GPUBuffer
destinationOffset GPUSize64

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. 次の条件を満たしていなければ、thisを無効化して返す。

    • querySetがthisで有効に使用可能であること。

    • destinationがthisで有効に使用可能であること。

    • destination.usageQUERY_RESOLVEが含まれること。

    • firstQuery < querySetのクエリ数。

    • (firstQuery + queryCount) ≤ querySetのクエリ数。

    • destinationOffsetが256の倍数であること。

    • destinationOffset + 8 × queryCount ≤ destination.sizeであること。

  3. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. queryIndex = firstQueryとする。

  2. offset = destinationOffsetとする。

  3. queryIndex < firstQuery + queryCountの間繰り返し:

    1. destinationのoffsetから8バイトに、querySetのqueryIndex番目の値を書き込む。

    2. queryIndex = queryIndex + 1とする。

    3. offset = offset + 8とする。

13.7. ファイナライズ

GPUCommandBuffer に、GPUCommandEncoder で記録されたコマンドを含めるには、 finish() を呼び出します。 finish() が呼び出されると、 そのコマンドエンコーダはこれ以上使用できなくなります。

finish(descriptor)

コマンド列の記録を完了し、対応するGPUCommandBufferを返します。

呼び出し対象: GPUCommandEncoder this

引数:

GPUCommandEncoder.finish(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUCommandBufferDescriptor

戻り値: GPUCommandBuffer

コンテンツタイムライン手順:

  1. commandBufferを新しいGPUCommandBufferとして定義。

  2. this.[[device]]デバイスタイムラインでfinish手順を実行。

  3. commandBufferを返す。

デバイスタイムライン finish手順:
  1. 以下すべての条件が満たされていればvalidationSucceeded=true、そうでなければfalse。

  2. this.[[state]] を"ended"に設定。

  3. validationSucceededがfalseなら:

    1. 検証エラーの生成

    2. 無効化されたGPUCommandBufferを返す。

  4. commandBuffer.[[command_list]] にthis.[[commands]]を設定。

14. プログラマブルパス

interface mixin GPUBindingCommandsMixin {
    undefined setBindGroup(GPUIndex32 index, GPUBindGroup? bindGroup,
        optional sequence<GPUBufferDynamicOffset> dynamicOffsets = []);

    undefined setBindGroup(GPUIndex32 index, GPUBindGroup? bindGroup,
        [AllowShared] Uint32Array dynamicOffsetsData,
        GPUSize64 dynamicOffsetsDataStart,
        GPUSize32 dynamicOffsetsDataLength);
};

GPUBindingCommandsMixin は同じオブジェクト上に GPUObjectBaseGPUCommandsMixin のメンバーが存在することを前提としています。 これらのミックスインも含むインターフェイスのみがGPUBindingCommandsMixinをincludeできます。

GPUBindingCommandsMixin には以下のデバイスタイムラインプロパティがあります:

[[bind_groups]], 型 ordered map<GPUIndex32, GPUBindGroup>, 初期値は空

各インデックスに対する現在のGPUBindGroup

[[dynamic_offsets]], 型 ordered map<GPUIndex32, list<GPUBufferDynamicOffset>>, 初期値は空

[[bind_groups]] エントリに対する現在のダイナミックオフセット。

14.1. バインドグループ

setBindGroup() には2つのオーバーロードがあります:

setBindGroup(index, bindGroup, dynamicOffsets)

指定したインデックスに対する現在のGPUBindGroupを設定します。

呼び出し対象: GPUBindingCommandsMixin this。

引数:

index, 型 GPUIndex32, 非null, 必須

バインドグループを設定するインデックス。

bindGroup, 型 GPUBindGroup, nullable, 必須

以降のレンダー/コンピュートコマンドで使用するバインドグループ。

dynamicOffsets, 型 sequence<GPUBufferDynamicOffset>, 非null, デフォルトは []

bindGroup内でbuffer.hasDynamicOffsetがtrueとなっている各エントリのバイト単位オフセット配列。順序はGPUBindGroupLayoutEntry.bindingで決まる。詳細は参照。

戻り値: undefined

Content timeline の手順:

  1. 以降の手順は this.[[device]]Device timeline 上で実行する。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. bindGroupがnullならdynamicOffsetCountは0、nullでなければbindGroup.[[layout]].[[dynamicOffsetCount]]

  3. 次の要件を満たしていなければthisを無効化して返す。

  4. bindGroupがnullの場合:

    1. 除去 this.[[bind_groups]][index]。

    2. 除去 this.[[dynamic_offsets]][index]。

    それ以外の場合:

    1. 次の要件を満たしていなければthisを無効化して返す。

    2. this.[[bind_groups]][index] にbindGroupをセット。

    3. this.[[dynamic_offsets]][index] に dynamicOffsets のコピーを設定する。

    4. thisがGPURenderCommandsMixinの場合:

      1. this.[[bind_groups]]内の各bindGroupについて、bindGroup.[[usedResources]]をthis.[[usage scope]]マージする。

setBindGroup(index, bindGroup, dynamicOffsetsData, dynamicOffsetsDataStart, dynamicOffsetsDataLength)

指定したインデックスに対して現在のGPUBindGroupを設定し、 ダイナミックオフセットをUint32Arrayの部分集合として指定します。

呼び出し対象: GPUBindingCommandsMixin this。

引数:

GPUBindingCommandsMixin.setBindGroup(index, bindGroup, dynamicOffsetsData, dynamicOffsetsDataStart, dynamicOffsetsDataLength) メソッドの引数。
パラメータ Nullable Optional 説明
index GPUIndex32 バインドグループを設定するインデックス。
bindGroup GPUBindGroup? 以降のレンダー/コンピュートコマンドで使用するバインドグループ。
dynamicOffsetsData Uint32Array bindGroup内でbuffer.hasDynamicOffsetがtrueとなっている各エントリのバイト単位オフセット配列。順序はGPUBindGroupLayoutEntry.bindingによる。詳細は参照。
dynamicOffsetsDataStart GPUSize64 dynamicOffsetsDataの要素オフセット(バイトオフセットではない)。
dynamicOffsetsDataLength GPUSize32 dynamicOffsetsDataから読み込むバッファオフセット数。

戻り値: undefined

コンテンツタイムライン手順:

  1. 次の要件を満たしていなければ、RangeErrorをthrowして返す。

    • dynamicOffsetsDataStart >= 0であること。

    • dynamicOffsetsDataStart + dynamicOffsetsDataLength ≤ dynamicOffsetsData.lengthであること。

  2. dynamicOffsetsをdynamicOffsetsDataのdynamicOffsetsDataStart番目からdynamicOffsetsDataLength要素分、コピーしたリストとする。

  3. this.setBindGroup(index, bindGroup, dynamicOffsets)を呼び出す。

注:
ダイナミックオフセットは GPUBindGroupLayoutEntry.binding の順序で適用されます。

つまり、dynamic bindingsGPUBindGroupLayoutEntry のうち GPUBindGroupLayout 内で buffer?.hasDynamicOffsettrue となっているものを GPUBindGroupLayoutEntry.binding順にソートしたリストとすると、 setBindGroup()に渡す dynamic offset[i]dynamic bindings[i] に対応します。

次の呼び出しで作成されたGPUBindGroupLayoutの場合:
// 配列内のbindingsは順序が異なっていますが、
// binding indexでソートされるため順序は問題ありません。
let layout = gpuDevice.createBindGroupLayout({
    entries: [{
        binding: 1,
        buffer: {},
    }, {
        binding: 2,
        buffer: { dynamicOffset: true },
    }, {
        binding: 0,
        buffer: { dynamicOffset: true },
    }]
});

次の呼び出しで生成されたGPUBindGroupを使用する場合:

// 上記同様、配列順序はここでも関係ありません。
// レイアウトで使われた順序と一致する必要もありません。
let bindGroup = gpuDevice.createBindGroup({
    layout: layout,
    entries: [{
        binding: 1,
        resource: { buffer: bufferA, offset: 256 },
    }, {
        binding: 2,
        resource: { buffer: bufferB, offset: 512 },
    }, {
        binding: 0,
        resource: { buffer: bufferC },
    }]
});

次の呼び出しでバインドする場合:

pass.setBindGroup(0, bindGroup, [1024, 2048]);

各バッファオフセットの適用結果:

Binding Buffer Offset
0 bufferC 1024 (ダイナミック)
1 bufferA 256 (静的)
2 bufferB 2560 (静的 + ダイナミック)
各ダイナミックバインディングオフセットの反復:指定されたGPUBindGroup bindGroupについて、各ダイナミックオフセットに対して実行するstepsのリストで、以下のデバイスタイムライン手順を実行:
  1. dynamicOffsetIndex = 0とする。

  2. layout = bindGroup.[[layout]]とする。

  3. bindGroup.[[entries]]内の各GPUBindGroupEntry entryについて、entry.bindingの昇順で:

    1. bindingDescriptor = layout.[[entryMap]][entry.binding]とする。

    2. bindingDescriptor.buffer?.hasDynamicOffset がtrueの場合:

      1. bufferBinding = get as buffer binding(entry.resource)。

      2. bufferLayout = bindingDescriptor.buffer

      3. steps(bufferBinding, bufferLayout, dynamicOffsetIndex) を呼び出す。

      4. dynamicOffsetIndex = dynamicOffsetIndex + 1とする。

エンコーダのバインドグループの検証(encoder, pipeline)

引数:

GPUBindingCommandsMixin encoder

検証対象のバインドグループを持つエンコーダ。

GPUPipelineBase pipeline

encoderのバインドグループが互換性を持つべきパイプライン。

デバイスタイムライン手順:

  1. 以下のいずれかの条件が満たされていなければ、falseを返す:

それ以外の場合はtrueを返す。

エンコーダのバインドグループが書き込み可能なリソースとエイリアスしているか判定(encoder, pipeline) 書き込み可能なバッファバインディング範囲が同じバッファの他のバインディング範囲と重なっている場合、または書き込み可能なテクスチャバインディングが他のテクスチャバインディングとテクスチャサブリソースで重なっている場合(同一または異なるGPUTextureView オブジェクトの可能性あり)。

注: このアルゴリズムはusage scope storage exceptionの使用を制限します。

引数:

GPUBindingCommandsMixin encoder

検証対象のバインドグループを持つエンコーダ。

GPUPipelineBase pipeline

encoderのバインドグループが互換性を持つべきパイプライン。

デバイスタイムライン手順:

  1. stage in [VERTEX, FRAGMENT, COMPUTE]について:

    1. bufferBindings = (GPUBufferBinding, boolean)のリストとする。booleanはリソースが書き込み可能かどうか。

    2. textureViews = (GPUTextureView, boolean)のリストとする。booleanはリソースが書き込み可能かどうか。

    3. pipeline.[[layout]].[[bindGroupLayouts]]内の各(bindGroupIndex, bindGroupLayout)について:

      1. bindGroup = encoder.[[bind_groups]][bindGroupIndex]。

      2. bindGroupLayoutEntries = bindGroupLayout.[[descriptor]].entries

      3. bufferRanges = bindGroupのバッファ範囲(ダイナミックオフセットはencoder.[[dynamic_offsets]][bindGroupIndex]を使用)

      4. bufferRanges内の各(bindGroupLayoutEntry, resource)で、bindGroupLayoutEntry.visibilityがstageを含む場合:

        1. resourceWritable = (bindGroupLayoutEntry.buffer.type == "storage")。

        2. bufferBindings内の各(pastResource, pastResourceWritable)について:

          1. resourceWritableまたはpastResourceWritableがtrueで、pastResourceとresourceがbuffer-binding-aliasingならtrueを返す。

        3. (resource, resourceWritable)をbufferBindingsに追加。

      5. bindGroupLayoutEntries内の各bindGroupLayoutEntryと対応するbindGroup内のresource(GPUTextureView)で、bindGroupLayoutEntry.visibilityがstageを含む場合:

        1. bindGroupLayoutEntry.storageTextureが提供されていなければcontinue。

        2. resourceWritable = bindGroupLayoutEntry.storageTexture.accessが書き込み可能なアクセスモードかどうか。

        3. textureViews内の各(pastResource, pastResourceWritable)について:

          1. resourceWritableまたはpastResourceWritableがtrueで、pastResourceとresourceがtexture-view-aliasingならtrueを返す。

        4. (resource, resourceWritable)をtextureViewsに追加。

  2. falseを返す。

注: 実装者はこのアルゴリズムの最適化を強く推奨します。

15. デバッグマーカー

GPUDebugCommandsMixinは、コマンドグループにデバッグラベルを適用したり、コマンド列に単一ラベルを挿入したりするためのメソッドを提供します。

デバッググループは入れ子にして、ラベル付きコマンドの階層を作ることができ、バランスが取れていなければなりません。

オブジェクトラベルと同様、これらのラベルには必須の動作はありませんが、エラーメッセージやブラウザ開発者ツールに表示されたり、ネイティブAPIバックエンドに渡されたりする場合があります。

interface mixin GPUDebugCommandsMixin {
    undefined pushDebugGroup(USVString groupLabel);
    undefined popDebugGroup();
    undefined insertDebugMarker(USVString markerLabel);
};

GPUDebugCommandsMixin は同じオブジェクト上に GPUObjectBaseGPUCommandsMixin のメンバーが存在することを前提としています。 これらのミックスインも含むインターフェイスのみがGPUDebugCommandsMixinをincludeできます。

GPUDebugCommandsMixin には以下のデバイスタイムラインプロパティがあります:

[[debug_group_stack]], 型 stack<USVString>

アクティブなデバッググループラベルのスタック。

GPUDebugCommandsMixin には以下のメソッドがあります:

pushDebugGroup(groupLabel)

以降のコマンドを含むラベル付きデバッググループを開始します。

呼び出し対象: GPUDebugCommandsMixin this。

引数:

GPUDebugCommandsMixin.pushDebugGroup(groupLabel) メソッドの引数。
パラメータ Nullable Optional 説明
groupLabel USVString コマンドグループのラベル。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. groupLabelをthis.[[debug_group_stack]]にpushする。

popDebugGroup()

直近にpushDebugGroup()で開始したラベル付きデバッググループを終了します。

呼び出し対象: GPUDebugCommandsMixin this。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. 次の要件を満たしていなければthisを無効化して返す。

  3. スタックのエントリを this.[[debug_group_stack]] からポップする。

insertDebugMarker(markerLabel)

コマンドストリームの任意の位置にラベルを挿入します。

呼び出し対象: GPUDebugCommandsMixin this。

引数:

GPUDebugCommandsMixin.insertDebugMarker(markerLabel) メソッドの引数。
パラメータ Nullable Optional 説明
markerLabel USVString 挿入するラベル。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

16. コンピュートパス

16.1. GPUComputePassEncoder

[Exposed=(Window, Worker), SecureContext]
interface GPUComputePassEncoder {
    undefined setPipeline(GPUComputePipeline pipeline);
    undefined dispatchWorkgroups(GPUSize32 workgroupCountX, optional GPUSize32 workgroupCountY = 1, optional GPUSize32 workgroupCountZ = 1);
    undefined dispatchWorkgroupsIndirect(GPUBuffer indirectBuffer, GPUSize64 indirectOffset);

    undefined end();
};
GPUComputePassEncoder includes GPUObjectBase;
GPUComputePassEncoder includes GPUCommandsMixin;
GPUComputePassEncoder includes GPUDebugCommandsMixin;
GPUComputePassEncoder includes GPUBindingCommandsMixin;

GPUComputePassEncoder には以下のデバイスタイムラインプロパティがあります:

[[command_encoder]], 型 GPUCommandEncoder, 読み取り専用

このコンピュートパスエンコーダを生成したGPUCommandEncoder

[[endTimestampWrite]], 型 GPU command?, 読み取り専用, デフォルトはnull

パス終了時にタイムスタンプを書き込むGPUコマンド(ある場合)。

[[pipeline]], 型 GPUComputePipeline, 初期値はnull

現在のGPUComputePipeline

16.1.1. コンピュートパスエンコーダ生成

dictionary GPUComputePassTimestampWrites {
    required GPUQuerySet querySet;
    GPUSize32 beginningOfPassWriteIndex;
    GPUSize32 endOfPassWriteIndex;
};
querySet, GPUQuerySet

クエリ結果を書き込むGPUQuerySet。 型は"timestamp"

beginningOfPassWriteIndex, GPUSize32

指定された場合、computeパス開始時のタイムスタンプを書き込むquerySet内のクエリインデックス。

endOfPassWriteIndex, GPUSize32

指定された場合、computeパス終了時のタイムスタンプを書き込むquerySet内のクエリインデックス。

注: タイムスタンプクエリーの値はナノ秒単位で書き込まれますが、その値がどのように決定されるかは 実装依存です。詳細は § 20.4 タイムスタンプクエリー を参照してください。

dictionary GPUComputePassDescriptor
         : GPUObjectDescriptorBase {
    GPUComputePassTimestampWrites timestampWrites;
};
timestampWrites, GPUComputePassTimestampWrites

このパスでどのタイムスタンプ値を書き込み、どこに書き込むかを定義します。

16.1.2. ディスパッチ

setPipeline(pipeline)

現在のGPUComputePipelineを設定します。

呼び出し対象: GPUComputePassEncoder this。

引数:

GPUComputePassEncoder.setPipeline(pipeline) メソッドの引数。
パラメータ Nullable Optional 説明
pipeline GPUComputePipeline 以降のディスパッチコマンドで使用するコンピュートパイプライン。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. 次の条件を満たしていなければthisを無効化して返す。

  3. this.[[pipeline]] にpipelineをセットする。

dispatchWorkgroups(workgroupCountX, workgroupCountY, workgroupCountZ)

現在のGPUComputePipelineで実行する作業をディスパッチします。 詳細な仕様は§ 23.1 コンピューティングを参照。

呼び出し対象: GPUComputePassEncoder this。

引数:

GPUComputePassEncoder.dispatchWorkgroups(workgroupCountX, workgroupCountY, workgroupCountZ) メソッドの引数。
パラメータ Nullable Optional 説明
workgroupCountX GPUSize32 ディスパッチするワークグループのX次元。
workgroupCountY GPUSize32 ディスパッチするワークグループのY次元。
workgroupCountZ GPUSize32 ディスパッチするワークグループのZ次元。
注:
x, y, zの値はdispatchWorkgroups()およびdispatchWorkgroupsIndirect()に渡すものであり、各次元でディスパッチするワークグループ数であって、各次元で実行するシェーダ呼び出しの数ではありません。これは現代のネイティブGPU APIの挙動と一致していますが、OpenCLとは異なります。

例えばGPUShaderModuleのエントリポイントが@workgroup_size(4, 4)で、computePass.dispatchWorkgroups(8, 8);を呼び出した場合、エントリポイントは合計1024回呼ばれます。X軸・Y軸両方で4x4のワークグループを8回ずつディスパッチするためです(4*4*8*8=1024)。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. usageScopeを空のusage scopeとする。

  3. this.[[bind_groups]]内の各bindGroupについて、bindGroup.[[usedResources]]をusageScopeにマージする。

  4. 次の条件を満たしていなければ、thisを無効化して返す。

  5. bindingStateをthisの現在の状態のスナップショットとする。

  6. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. [workgroupCountX, workgroupCountY, workgroupCountZ]次元のワークグループグリッドを、bindingState.[[pipeline]]とbindingState.[[bind_groups]]を用いて実行する。

dispatchWorkgroupsIndirect(indirectBuffer, indirectOffset)

現在のGPUComputePipelineで、GPUBufferからパラメータを読み取って作業をディスパッチします。 詳細な仕様は§ 23.1 コンピューティング参照。

バッファ内のindirect dispatch parametersは、32ビット符号なし整数3つ(合計12バイト)を引数順(dispatchWorkgroups()の引数順)に詰めて格納します。例:

let dispatchIndirectParameters = new Uint32Array(3);
dispatchIndirectParameters[0] = workgroupCountX;
dispatchIndirectParameters[1] = workgroupCountY;
dispatchIndirectParameters[2] = workgroupCountZ;
呼び出し対象: GPUComputePassEncoder this。

引数:

GPUComputePassEncoder.dispatchWorkgroupsIndirect(indirectBuffer, indirectOffset) メソッドの引数。
パラメータ Nullable Optional 説明
indirectBuffer GPUBuffer indirect dispatch parametersを格納するバッファ。
indirectOffset GPUSize64 indirectBuffer内でディスパッチデータが始まるバイトオフセット。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. usageScopeを空のusage scopeとする。

  3. this.[[bind_groups]]内の各bindGroupについて、bindGroup.[[usedResources]]をusageScopeにマージする。

  4. indirectBufferをusageScopeにusageで追加する。

  5. 次の条件を満たしていなければ、thisを無効化して返す。

  6. bindingStateをthisの現在の状態のスナップショットとする。

  7. thisにコマンドのエンキューを行い、以降の手順をキュータイムラインで実行。

キュータイムライン手順:
  1. workgroupCountX = indirectBufferのindirectOffsetバイト目から符号なし32ビット整数値として読み取る。

  2. workgroupCountY = indirectBufferの(indirectOffset + 4)バイト目から符号なし32ビット整数値として読み取る。

  3. workgroupCountZ = indirectBufferの(indirectOffset + 8)バイト目から符号なし32ビット整数値として読み取る。

  4. workgroupCountX, workgroupCountY, workgroupCountZのいずれかがthis.device.limits.maxComputeWorkgroupsPerDimensionを超えていればreturn。

  5. [workgroupCountX, workgroupCountY, workgroupCountZ]次元のワークグループグリッドを、bindingState.[[pipeline]]とbindingState.[[bind_groups]]を用いて実行する。

16.1.3. ファイナライズ

ユーザーがパスのコマンド記録を完了したら end() を呼び出すことでコンピュートパスエンコーダを終了できます。end() が呼び出されると、コンピュートパスエンコーダはそれ以降使用できません。

end()

コンピュートパスコマンド列の記録を完了します。

呼び出し対象: GPUComputePassEncoder this

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. parentEncoder = this.[[command_encoder]]とする。

  2. 次の要件を満たしていなければ検証エラーを生成してreturn。

  3. this.[[state]] を"ended"に設定。

  4. parentEncoder.[[state]] を"open"に設定。

  5. 次の要件を満たしていなければparentEncoderを無効化してreturn。

  6. parentEncoder.[[commands]] にthis.[[commands]]Extendする。

  7. this.[[endTimestampWrite]] がnullでない場合:

    1. parentEncoder.[[commands]] にthis.[[endTimestampWrite]]Extendする。

17. レンダーパス

17.1. GPURenderPassEncoder

[Exposed=(Window, Worker), SecureContext]
interface GPURenderPassEncoder {
    undefined setViewport(float x, float y,
        float width, float height,
        float minDepth, float maxDepth);

    undefined setScissorRect(GPUIntegerCoordinate x, GPUIntegerCoordinate y,
                        GPUIntegerCoordinate width, GPUIntegerCoordinate height);

    undefined setBlendConstant(GPUColor color);
    undefined setStencilReference(GPUStencilValue reference);

    undefined beginOcclusionQuery(GPUSize32 queryIndex);
    undefined endOcclusionQuery();

    undefined executeBundles(sequence<GPURenderBundle> bundles);
    undefined end();
};
GPURenderPassEncoder includes GPUObjectBase;
GPURenderPassEncoder includes GPUCommandsMixin;
GPURenderPassEncoder includes GPUDebugCommandsMixin;
GPURenderPassEncoder includes GPUBindingCommandsMixin;
GPURenderPassEncoder includes GPURenderCommandsMixin;

GPURenderPassEncoder には以下のデバイスタイムラインプロパティがあります:

[[command_encoder]], 型 GPUCommandEncoder, 読み取り専用

このレンダーパスエンコーダを生成したGPUCommandEncoder

[[attachment_size]], 読み取り専用

次の範囲に設定される:

  • width, height = パスのレンダーアタッチメントのサイズ

[[occlusion_query_set]], 型 GPUQuerySet, 読み取り専用

パス内のオクルージョンクエリ結果を書き込むGPUQuerySet。パス生成時にGPURenderPassDescriptor.occlusionQuerySetで初期化される。

[[endTimestampWrite]], 型 GPUコマンド?、読み取り専用、 デフォルトはnull

パス終了時にタイムスタンプを書き込むGPUコマンド(ある場合)。

[[maxDrawCount]]GPUSize64, 読み取り専用

このパスで許可される最大ドロー数。

[[occlusion_query_active]], 型 boolean

パスの[[occlusion_query_set]]が書き込まれているかどうか。

エンコードされたレンダーパスコマンドがGPUCommandBufferの一部として実行されるとき、 内部的にRenderStateオブジェクトがレンダリングに必要な現在の状態を管理するために使用されます。

RenderStateには以下のキュータイムラインプロパティがあります:

[[occlusionQueryIndex]], 型 GPUSize32

オクルージョンクエリ結果を書き込む[[occlusion_query_set]]内のインデックス。

[[viewport]]

現在のビューポート矩形と深度範囲。初期値は次の通り:

  • x, y = 0.0, 0.0

  • width, height = パスのレンダーターゲットのサイズ

  • minDepth, maxDepth = 0.0, 1.0

[[scissorRect]]

現在のシザーレクト。初期値は次の通り:

  • x, y = 0, 0

  • width, height = パスのレンダーターゲットのサイズ

[[blendConstant]], 型 GPUColor

現在のブレンド定数値。初期値は[0, 0, 0, 0]

[[stencilReference]], 型 GPUStencilValue

現在のステンシル参照値。初期値は0

[[colorAttachments]], 型 sequence<GPURenderPassColorAttachment?>

このレンダーパスのカラーアタッチメントとその状態。

[[depthStencilAttachment]], 型 GPURenderPassDepthStencilAttachment?

このレンダーパスのデプス/ステンシルアタッチメントとその状態。

レンダーパスにはframebuffer memoryもあり、各アタッチメントに対応するテクセルデータを格納し、ドローコマンドで書き込まれたり、ブレンドやデプス/ステンシルテストで読み取られたりする。

注: GPUハードウェアによっては、framebuffer memoryがアタッチメントテクスチャで割り当てられたメモリである場合や、タイルベースアーキテクチャのようにテクスチャデータがコピーされる別領域のメモリである場合もある。

17.1.1. レンダーパスエンコーダ生成

dictionary GPURenderPassTimestampWrites {
    required GPUQuerySet querySet;
    GPUSize32 beginningOfPassWriteIndex;
    GPUSize32 endOfPassWriteIndex;
};
querySet, GPUQuerySet

クエリ結果を書き込むGPUQuerySet。型は"timestamp"

beginningOfPassWriteIndex, GPUSize32

指定された場合、レンダーパス開始時のタイムスタンプを書き込むquerySet内のクエリインデックス。

endOfPassWriteIndex, GPUSize32

指定された場合、レンダーパス終了時のタイムスタンプを書き込むquerySet内のクエリインデックス。

注: タイムスタンプクエリの値はナノ秒単位で書き込まれますが、その値がどのように決定されるかは 実装依存です。詳細は § 20.4 タイムスタンプクエリ を参照してください。

dictionary GPURenderPassDescriptor
         : GPUObjectDescriptorBase {
    required sequence<GPURenderPassColorAttachment?> colorAttachments;
    GPURenderPassDepthStencilAttachment depthStencilAttachment;
    GPUQuerySet occlusionQuerySet;
    GPURenderPassTimestampWrites timestampWrites;
    GPUSize64 maxDrawCount = 50000000;
};
colorAttachments, sequence<GPURenderPassColorAttachment?>

このシーケンス内のGPURenderPassColorAttachment値の集合が、このレンダーパスの実行時に出力されるカラーアタッチメントを定義します。

使用互換性のため、どのカラーアタッチメントも他のアタッチメントやパス内で使われるリソースとエイリアスしてはなりません。

depthStencilAttachment, GPURenderPassDepthStencilAttachment

実行時に出力・テストされるデプス/ステンシルアタッチメントを定義するGPURenderPassDepthStencilAttachment値。

使用互換性のため、どの書き込み可能なデプス/ステンシルアタッチメントも他のアタッチメントやパス内で使われるリソースとエイリアスしてはなりません。

occlusionQuerySet, GPUQuerySet

このパスのオクルージョンクエリ結果の格納先を定義するGPUQuerySet値。

timestampWrites, GPURenderPassTimestampWrites

このパスでどのタイムスタンプ値を書き込み、どこに書き込むかを定義します。

maxDrawCount, GPUSize64、デフォルト値は50000000

このレンダーパスで実行される最大ドロー呼び出し数。一部の実装ではレンダーパス前に投入される処理のサイズ決定に使われます。デフォルト値のままで問題ありませんが、より多くのドロー呼び出しが行われることが分かっている場合は調整してください。

有効な使用方法

GPUDevice deviceとGPURenderPassDescriptor thisが与えられた場合、以下の検証ルールが適用されます:

  1. this.colorAttachments.sizeは device.[[limits]].maxColorAttachments以下でなければならない。

  2. this.colorAttachments内の非nullなcolorAttachmentごとに:

    1. colorAttachment.view はdeviceで有効に使用可能でなければならない。

    2. colorAttachment.resolveTarget提供されている場合:

      1. colorAttachment.resolveTarget はdeviceで有効に使用可能でなければならない。

    3. colorAttachmentはGPURenderPassColorAttachment 有効な使用方法のルールを満たす必要がある。

  3. this.depthStencilAttachment提供されている場合:

    1. this.depthStencilAttachment.view はdeviceで有効に使用可能でなければならない。

    2. this.depthStencilAttachmentGPURenderPassDepthStencilAttachment 有効な使用方法のルールを満たす必要がある。

  4. 少なくとも1つのアタッチメントが存在しなければならない。以下のいずれか:

  5. GPURenderPassDescriptorのカラ―アタッチメントbytes per sampleの検証(device, this.colorAttachments) が成功すること。

  6. this.colorAttachments内の非nullメンバーの viewおよび this.depthStencilAttachment.view (あれば)は、同じsampleCountでなければならない。

  7. this.colorAttachments内の非nullメンバーの viewおよび this.depthStencilAttachment.view (あれば)は、[[renderExtent]]が一致していなければならない。

  8. this.occlusionQuerySet提供されている場合:

    1. this.occlusionQuerySet はdeviceで有効に使用可能でなければならない。

    2. this.occlusionQuerySet.typeocclusionでなければならない。

  9. this.timestampWrites提供されている場合:

GPURenderPassDescriptorのカラ―アタッチメントbytes per sampleの検証(device, colorAttachments)

引数:

デバイスタイムライン手順:

  1. formatsを空のlist<GPUTextureFormat?>とする。

  2. colorAttachments内のcolorAttachmentごとに:

    1. colorAttachmentがundefinedならcontinue。

    2. formatsに追加 colorAttachment.view.[[descriptor]].format を。

  3. formatsのカラ―アタッチメントbytes per sampleの計算が device.[[limits]].maxColorAttachmentBytesPerSample以下でなければならない。

17.1.1.1. カラ―アタッチメント
dictionary GPURenderPassColorAttachment {
    required (GPUTexture or GPUTextureView) view;
    GPUIntegerCoordinate depthSlice;
    (GPUTexture or GPUTextureView) resolveTarget;

    GPUColor clearValue;
    required GPULoadOp loadOp;
    required GPUStoreOp storeOp;
};
view, (GPUTexture または GPUTextureView)

このカラ―アタッチメントで出力されるテクスチャサブリソースを記述します。 サブリソースはget as texture view(view)呼び出しで決定されます。

depthSlice, GPUIntegerCoordinate

このカラ―アタッチメントで出力される"3d" view のデプススライスインデックスを示します。

resolveTarget, (GPUTexture または GPUTextureView)

このカラ―アタッチメントがマルチサンプルの場合、解決された出力を受け取るテクスチャサブリソースを記述します。 サブリソースはget as texture view(resolveTarget)呼び出しで決定されます。

clearValue, GPUColor

レンダーパス実行前にview をクリアする値を示します。指定されていない場合は{r: 0, g: 0, b: 0, a: 0}がデフォルトです。 loadOp"clear"でない場合は無視されます。

clearValue の各成分はdouble値です。 レンダーアタッチメントに合ったテクスチャフォーマットのテクセル値へ変換されます。 変換に失敗した場合、バリデーションエラーが生成されます。

loadOp, GPULoadOp

レンダーパス実行前にview に対して行うロード操作を示します。

注: クリアを推奨します。詳細は "clear" を参照してください。

storeOp, GPUStoreOp

レンダーパス実行後にview に対して行うストア操作。

GPURenderPassColorAttachment 有効な使用方法

GPURenderPassColorAttachment thisが与えられた場合:

  1. renderViewDescriptor = this.view.[[descriptor]]とする。

  2. renderTexture = this.view.[[texture]]とする。

  3. 以下の手順の要件をすべて満たさなければならない。

    1. renderViewDescriptor.formatカラ―レンダラブルフォーマットでなければならない。

    2. this.viewレンダラブルテクスチャビューでなければならない。

    3. renderViewDescriptor.dimension"3d"の場合:

      1. this.depthSlice 提供されている必要があり 現行標準のdepthOrArrayLayers より小さい必要があります。また、現行標準の論理miplevel固有のテクスチャ範囲renderTexture 現行標準のsubresourcemipmapレベル renderViewDescriptor.baseMipLevelである必要があります。

      それ以外の場合:

      1. this.depthSlice指定されていてはならない

    4. this.loadOp"clear"の場合:

      1. IDL値this.clearValueの renderViewDescriptor.formatへのテクセル値変換TypeErrorを投げてはならない。

        注: フォーマットの範囲外でも対応するWGSLプリミティブ型(f32, i32, u32)の範囲内ならエラーは発生しません。

    5. this.resolveTarget指定されている場合:

      1. resolveViewDescriptor = this.resolveTarget.[[descriptor]]とする。

      2. resolveTexture = this.resolveTarget.[[texture]]とする。

      3. renderTexture.sampleCount は1より大きくなければならない。

      4. resolveTexture.sampleCount は1でなければならない。

      5. this.resolveTarget は非3dのレンダラブルテクスチャビューでなければならない。

      6. this.resolveTarget.[[renderExtent]] および this.view.[[renderExtent]] が一致していなければならない。

      7. resolveViewDescriptor.format は renderViewDescriptor.formatと等しくなければならない。

      8. resolveTexture.format は renderTexture.formatと等しくなければならない。

      9. resolveViewDescriptor.format§ 26.1.1 プレーンカラーフォーマットに従いresolve可能でなければならない。

GPUTextureView viewはレンダラブルテクスチャビュー となります。以下のデバイスタイムライン手順のすべての要件を満たす場合:
  1. descriptor = view.[[descriptor]]とする。

  2. descriptor.usageRENDER_ATTACHMENTが含まれていなければならない。

  3. descriptor.dimension"2d" または"2d-array" または"3d"でなければならない。

  4. descriptor.mipLevelCount は1でなければならない。

  5. descriptor.arrayLayerCount は1でなければならない。

  6. descriptor.aspect がview.[[texture]]のすべてのアスペクトを参照していなければならない。

  7. descriptor.swizzle"rgba" でなければならない。

カラ―アタッチメントbytes per sampleの計算(formats)

引数:

戻り値: GPUSize32

  1. total = 0とする。

  2. formats内の非nullformatごとに

    1. Assert: formatはカラ―レンダラブルフォーマットである。

    2. renderTargetPixelByteCost = formatのレンダーターゲットピクセルバイトコスト

    3. renderTargetComponentAlignment = formatのレンダーターゲットコンポーネントアライメント

    4. totalをrenderTargetComponentAlignmentの倍数になるように切り上げる。

    5. renderTargetPixelByteCostをtotalに加算する。

  3. totalを返す。

17.1.1.2. デプス/ステンシルアタッチメント
dictionary GPURenderPassDepthStencilAttachment {
    required (GPUTexture or GPUTextureView) view;

    float depthClearValue;
    GPULoadOp depthLoadOp;
    GPUStoreOp depthStoreOp;
    boolean depthReadOnly = false;

    GPUStencilValue stencilClearValue = 0;
    GPULoadOp stencilLoadOp;
    GPUStoreOp stencilStoreOp;
    boolean stencilReadOnly = false;
};
view, (GPUTexture または GPUTextureView)

このデプス/ステンシルアタッチメントで出力・読み取りされるテクスチャサブリソースを記述します。 サブリソースはget as texture view(view)呼び出しで決定されます。

depthClearValue, float

レンダーパス実行前にviewのデプス成分をクリアする値を示します。 depthLoadOp"clear"でない場合は無視されます。 0.0以上1.0以下でなければなりません。

depthLoadOp, GPULoadOp

レンダーパス実行前にviewのデプス成分に対して行うロード操作を示します。

注: クリアを推奨します。詳細は "clear" を参照してください。

depthStoreOp, GPUStoreOp

レンダーパス実行後にviewのデプス成分に対して行うストア操作。

depthReadOnly, boolean, デフォルトはfalse

viewのデプス成分が読み取り専用であることを示します。

stencilClearValue, GPUStencilValue, デフォルトは 0

レンダーパス実行前にviewのステンシル成分をクリアする値を示します。 stencilLoadOp"clear"でない場合は無視されます。

値はviewのステンシルアスペクトの型に変換され、1テクセル分のステンシルアスペクトビット数分のLSBを利用します。

stencilLoadOp, GPULoadOp

レンダーパス実行前にviewのステンシル成分に対して行うロード操作を示します。

注: クリアを推奨します。詳細は "clear" を参照してください。

stencilStoreOp, GPUStoreOp

レンダーパス実行後にviewのステンシル成分に対して行うストア操作。

stencilReadOnly, boolean, デフォルトはfalse

viewのステンシル成分が読み取り専用であることを示します。

GPURenderPassDepthStencilAttachment 有効な使用方法

GPURenderPassDepthStencilAttachment thisが与えられた場合、以下のバリデーションルールが適用されます:

17.1.1.3. ロード/ストア操作
enum GPULoadOp {
    "load",
    "clear",
};
"load"

このアタッチメントの既存の値をレンダーパスにロードします。

"clear"

このアタッチメントのクリア値をレンダーパスにロードします。

注: 一部のGPUハードウェア(主にモバイル)では、"clear" の方がはるかに高速です。これは、メインメモリからタイルローカルメモリへのデータロードを回避できるためです。 他のGPUハードウェアでは大きな違いはありません。そのため、初期値が重要でない場合(例:レンダーターゲットをスカイボックスでクリアする場合)は "clear""load" よりも推奨します。

enum GPUStoreOp {
    "store",
    "discard",
};
"store"

レンダーパスの実行結果をこのアタッチメントに保存します。

"discard"

レンダーパスの実行結果をこのアタッチメントで破棄します。

注: 破棄されたアタッチメントはゼロクリアされたかのように扱われますが、実装はレンダーパス終了時に明示的なクリアを行う必要はありません。 パス終了時に明示的なクリアを行わない実装は、アタッチメントの内容を読み込む(サンプリング、コピー、次のレンダーパスへ"load"でアタッチ、キャンバス表示や読み出し (get a copy of the image contents of a context) など)前に遅延クリアを行わなければなりません。

17.1.1.4. レンダーパスレイアウト

GPURenderPassLayoutGPURenderBundleのレンダーターゲットのレイアウトを宣言します。 また、内部的には GPURenderPassEncoderレイアウトGPURenderPipelineレイアウトにも使われます。 この型は、レンダーパス・レンダーバンドル・レンダーパイプライン間の互換性判定に使われます。

dictionary GPURenderPassLayout
         : GPUObjectDescriptorBase {
    required sequence<GPUTextureFormat?> colorFormats;
    GPUTextureFormat depthStencilFormat;
    GPUSize32 sampleCount = 1;
};
colorFormats, sequence<GPUTextureFormat?>

このパスまたはバンドルのカラ―アタッチメントのGPUTextureFormatのリスト。

depthStencilFormat, GPUTextureFormat

このパスまたはバンドルのデプス/ステンシルアタッチメントのGPUTextureFormat

sampleCount, GPUSize32, デフォルトは1

このパスまたはバンドルのアタッチメントのピクセルごとのサンプル数。

2つのGPURenderPassLayout 値は等しいのは:
パスからレンダーターゲットレイアウトを導出

引数:

戻り値: GPURenderPassLayout

デバイスタイムライン手順:

  1. layoutを新しいGPURenderPassLayout オブジェクトとする。

  2. descriptor.colorAttachments内のcolorAttachmentごとに:

    1. colorAttachmentがnullでない場合:

      1. layout.sampleCount にcolorAttachment.view.[[texture]].sampleCountをセットする。

      2. layout.colorFormatsにcolorAttachment.view.[[descriptor]].formatを追加する。

      それ以外の場合:

      1. layout.colorFormatsにnullを追加する。

  3. depthStencilAttachment = descriptor.depthStencilAttachmentとする。

  4. depthStencilAttachmentがnullでない場合:

    1. view = depthStencilAttachment.viewとする。

    2. layout.sampleCount にview.[[texture]].sampleCountをセットする。

    3. layout.depthStencilFormat にview.[[descriptor]].formatをセットする。

  5. layoutを返す。

パイプラインからレンダーターゲットレイアウトを導出

引数:

戻り値: GPURenderPassLayout

デバイスタイムライン手順:

  1. layoutを新しいGPURenderPassLayoutオブジェクトとする。

  2. layout.sampleCount にdescriptor.multisample.countをセットする。

  3. descriptor.depthStencil指定されている場合:

    1. layout.depthStencilFormat にdescriptor.depthStencil.formatをセットする。

  4. descriptor.fragment指定されている場合:

    1. descriptor.fragment.targets内のcolorTargetごとに:

      1. colorTargetがnullでなければlayout.colorFormatsにcolorTarget.formatを追加、nullであればnullを追加。

  5. layoutを返す。

17.1.2. ファイナライズ

レンダーパスのコマンド記録が完了したら、end() を呼び出すことでレンダーパスエンコーダを終了できます。end() が呼び出された後は、このレンダーパスエンコーダは使用できません。

end()

レンダーパスコマンド列の記録を完了します。

呼び出し対象: GPURenderPassEncoder this。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. parentEncoder = this.[[command_encoder]]とする。

  2. 以下の要件が満たされていなければ、バリデーションエラーを生成してreturn。

  3. this.[[state]] を"ended"に設定する。

  4. parentEncoder.[[state]] を"open"に設定する。

  5. 次の要件が満たされていなければparentEncoderを無効化してreturn。

  6. parentEncoder.[[commands]] にthis.[[commands]]Extendする。

  7. this.[[endTimestampWrite]] がnullでない場合:

    1. parentEncoder.[[commands]] にthis.[[endTimestampWrite]]Extendする。

  8. thisにレンダーコマンドのエンキューを行い、以降の手順をrenderState付きでキュータイムラインで実行。

キュータイムライン手順:
  1. renderState.[[colorAttachments]]内の非nullcolorAttachmentごとに:

    1. colorView = colorAttachment.viewとする。

    2. colorView.[[descriptor]].dimension が:

      "3d"

      colorSubregion = colorAttachment.depthSlice of colorViewとする。

      それ以外

      colorSubregion = colorViewとする。

    3. colorAttachment.resolveTarget がnullでない場合:

      1. colorSubregionの各テクセルの複数サンプルを1サンプルに解決し、colorAttachment.resolveTargetにコピーする。

    4. colorAttachment.storeOp が:

      "store"

      colorSubregionに関連付けられたフレームバッファメモリ の内容をcolorSubregionに保存する。

      "discard"

      colorSubregionの各テクセルをゼロにする。

  2. depthStencilAttachment = renderState.[[depthStencilAttachment]]とする。

  3. depthStencilAttachmentがnullでない場合:

    1. depthStencilAttachment.depthStoreOp が:

      指定されていない

      Assert: depthStencilAttachment.depthReadOnlytrueであること。depthStencilViewのdepth サブリソースは変更しない。

      "store"

      depthStencilViewのdepthサブリソースに関連付けられたフレームバッファメモリ の内容をdepthStencilViewに保存する。

      "discard"

      depthStencilViewのdepth サブリソースの全テクセルをゼロにする。

    2. depthStencilAttachment.stencilStoreOp が:

      指定されていない

      Assert: depthStencilAttachment.stencilReadOnlytrueであること。depthStencilViewのstencil サブリソースは変更しない。

      "store"

      depthStencilViewのstencilサブリソースに関連付けられたフレームバッファメモリ の内容をdepthStencilViewに保存する。

      "discard"

      depthStencilViewのstencil サブリソースの全テクセルをゼロにする。

  4. renderState = nullとする。

注: 破棄されたアタッチメントはゼロクリアされたかのように扱われますが、実装はレンダーパス終了時に明示的なクリアを行う必要はありません。詳細は"discard"の注を参照してください。

注: 読み取り専用デプス・ステンシルアタッチメントは暗黙的に"store"操作を使うものと考えられますが、パス中に内容が変更されないため実装はアタッチメントを更新する必要はありません。ストア操作を指定してはならないというバリデーションはGPURenderPassDepthStencilAttachment 有効な使用方法で行われます。

17.2. GPURenderCommandsMixin

GPURenderCommandsMixinGPURenderPassEncoderGPURenderBundleEncoder に共通のレンダリングコマンドを定義します。

interface mixin GPURenderCommandsMixin {
    undefined setPipeline(GPURenderPipeline pipeline);

    undefined setIndexBuffer(GPUBuffer buffer, GPUIndexFormat indexFormat, optional GPUSize64 offset = 0, optional GPUSize64 size);
    undefined setVertexBuffer(GPUIndex32 slot, GPUBuffer? buffer, optional GPUSize64 offset = 0, optional GPUSize64 size);

    undefined draw(GPUSize32 vertexCount, optional GPUSize32 instanceCount = 1,
        optional GPUSize32 firstVertex = 0, optional GPUSize32 firstInstance = 0);
    undefined drawIndexed(GPUSize32 indexCount, optional GPUSize32 instanceCount = 1,
        optional GPUSize32 firstIndex = 0,
        optional GPUSignedOffset32 baseVertex = 0,
        optional GPUSize32 firstInstance = 0);

    undefined drawIndirect(GPUBuffer indirectBuffer, GPUSize64 indirectOffset);
    undefined drawIndexedIndirect(GPUBuffer indirectBuffer, GPUSize64 indirectOffset);
};

GPURenderCommandsMixin は、同じオブジェクト上に GPUObjectBaseGPUCommandsMixinGPUBindingCommandsMixin のメンバーが存在することを前提としています。 これらのミックスインも含むインターフェイスのみがGPURenderCommandsMixinをincludeできます。

GPURenderCommandsMixin には以下のデバイスタイムラインプロパティがあります:

[[layout]], 型 GPURenderPassLayout、読み取り専用

レンダーパスのレイアウト。

[[depthReadOnly]], 型 boolean、読み取り専用

trueの場合、デプス成分が変更されないことを示します。

[[stencilReadOnly]], 型 boolean、読み取り専用

trueの場合、ステンシル成分が変更されないことを示します。

[[usage scope]], 型 usage scope、初期値は空

このレンダーパスまたはバンドルのusage scope

[[pipeline]], 型 GPURenderPipeline、初期値はnull

現在のGPURenderPipeline

[[index_buffer]], 型 GPUBuffer、初期値はnull

現在インデックスデータを読み取るバッファ。

[[index_format]], 型 GPUIndexFormat

[[index_buffer]]内インデックスデータのフォーマット。

[[index_buffer_offset]], 型 GPUSize64

現在設定されている[[index_buffer]]のセクションのバイトオフセット。

[[index_buffer_size]], 型 GPUSize64

現在設定されている[[index_buffer]]のセクションのバイトサイズ。初期値は0

[[vertex_buffers]], 型 ordered map<slot, GPUBuffer>、初期値は空

各スロットごとに頂点データを読み取るための現在のGPUBuffer

[[vertex_buffer_sizes]], 型 ordered map<slot, GPUSize64>、初期値は空

各スロットごとに現在設定されているGPUBufferのセクションのバイトサイズ。

[[drawCount]], 型 GPUSize64

このエンコーダで記録されたドローコマンド数。

GPURenderCommandsMixin encoder上でレンダーコマンドのエンキューを行い、 GPU Command commandの手順をRenderState renderState付きで実行するには、以下のデバイスタイムライン手順を実行します:
  1. commandencoder.[[commands]]に追加する。

  2. commandがGPUCommandBuffer commandBufferの一部として実行される場合:

    1. commandBuffer.[[renderState]]をrenderStateとしてcommandの手順を実行する。

17.2.1. 描画

setPipeline(pipeline)

現在のGPURenderPipelineを設定します。

呼び出し対象: GPURenderCommandsMixin this。

引数:

GPURenderCommandsMixin.setPipeline(pipeline) メソッドの引数。
パラメータ Nullable Optional 説明
pipeline GPURenderPipeline 以降の描画コマンドで使用するレンダーパイプライン。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. pipelineTargetsLayout = パイプラインからレンダーターゲットレイアウトを導出(pipeline.[[descriptor]])とする。

  3. 以下の条件を満たさなければthisを無効化して返す。

  4. this.[[pipeline]] にpipelineをセットする。

setIndexBuffer(buffer, indexFormat, offset, size)

現在のインデックスバッファを設定します。

呼び出し対象: GPURenderCommandsMixin this。

引数:

GPURenderCommandsMixin.setIndexBuffer(buffer, indexFormat, offset, size) メソッドの引数。
パラメータ Nullable Optional 説明
buffer GPUBuffer 以降の描画コマンドで使用するインデックスデータを含むバッファ。
indexFormat GPUIndexFormat buffer内インデックスデータのフォーマット。
offset GPUSize64 buffer内でインデックスデータが開始するバイトオフセット。デフォルトは0
size GPUSize64 buffer内インデックスデータのバイトサイズ。デフォルトはバッファサイズからオフセットを引いた値。

戻り値: undefined

コンテンツタイムライン手順:

  1. this.[[device]]デバイスタイムラインで以降の手順を実行。

デバイスタイムライン手順:
  1. エンコーダ状態の検証をthisに対して実行。falseなら返す。

  2. sizeが未指定の場合は、size = max(0, buffer.size - offset)とする。

  3. 以下の条件を満たさなければthisを無効化して返す。

    • bufferがthisで有効に使用可能であること。

    • buffer.usageINDEXが含まれること。

    • offsetがindexFormatのバイトサイズの倍数であること。

    • offset + size ≤ buffer.sizeであること。

  4. buffer[[usage scope]]にusageとして追加する。

  5. this.[[index_buffer]] にbufferをセットする。

  6. this.[[index_format]] にindexFormatをセットする。

  7. this.[[index_buffer_offset]] にoffsetをセットする。

  8. this.[[index_buffer_size]] にsizeをセットする。

setVertexBuffer(slot, buffer, offset, size)

指定したスロットの現在の頂点バッファを設定します。

呼び出し対象: GPURenderCommandsMixin this.

引数:

GPURenderCommandsMixin.setVertexBuffer(slot, buffer, offset, size) メソッドの引数。
パラメータ Nullable Optional 説明
slot GPUIndex32 頂点バッファを設定する頂点バッファスロット。
buffer GPUBuffer? 後続の描画コマンドに使用される頂点データを含むバッファ。
offset GPUSize64 buffer の頂点データの開始位置(バイト単位のオフセット)。デフォルトは 0
size GPUSize64 buffer 内の頂点データのバイト数。デフォルトはバッファのサイズからオフセットを引いた値。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. thisエンコーダ状態の検証を行う。false を返した場合は return。

  2. buffernull の場合は bufferSize を 0、そうでない場合は buffer.size とする。

  3. size が指定されていない場合、size に max(0, bufferSize - offset) を設定する。

  4. 次のいずれかの条件に違反する場合は、this を無効化して return。

    • slotthis.[[device]].[[limits]].maxVertexBuffers より小さい必要がある。

    • offset は 4 の倍数である必要がある。

    • offset + sizebufferSize 以下である必要がある。

  5. buffernull の場合:

    1. this.[[vertex_buffers]][slot] を 削除する。

    2. this.[[vertex_buffer_sizes]][slot] を 削除する。

    それ以外の場合:

    1. 次のいずれかの条件に違反する場合は、this を無効化して return。

    2. buffer[[usage scope]]input 用として追加する。

    3. this.[[vertex_buffers]][slot] に buffer を設定する。

    4. this.[[vertex_buffer_sizes]][slot] に size を設定する。

draw(vertexCount, instanceCount, firstVertex, firstInstance)

プリミティブを描画します。 詳細な仕様は § 23.2 レンダリング を参照してください。

呼び出し対象: GPURenderCommandsMixin this.

引数:

GPURenderCommandsMixin.draw(vertexCount, instanceCount, firstVertex, firstInstance) メソッドの引数。
パラメータ Nullable Optional 説明
vertexCount GPUSize32 描画する頂点数。
instanceCount GPUSize32 描画するインスタンス数。
firstVertex GPUSize32 描画開始位置(頂点バッファのオフセット、頂点単位)。
firstInstance GPUSize32 描画する最初のインスタンス。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. thisエンコーダ状態の検証を行う。false を返した場合は return。

  2. 以下のステップの要件は すべて満たされなければならない。 いずれかを満たさない場合は this を無効化して return。

    1. this描画可能である必要がある。

    2. buffersthis.[[pipeline]].[[descriptor]].vertex.buffers である。

    3. GPUIndex32 slot について、0 から buffers.size(非包括的)まで:

      1. buffers[slot] が null の場合は continue

      2. bufferSizethis.[[vertex_buffer_sizes]][slot] である。

      3. stridebuffers[slot].arrayStride である。

      4. attributesbuffers[slot].attributes

      5. lastStride は、各 attribute について (attribute.offset + byteSize(attribute.format)) の最大値、attributesの場合は 0。

      6. strideCountbuffers[slot].stepMode に応じて計算する:

        "vertex"

        firstVertex + vertexCount

        "instance"

        firstInstance + instanceCount

      7. strideCount0 の場合:

        1. (strideCount1) × stride + lastStridebufferSize 以下でなければならない。

  3. this.[[drawCount]] を 1 増加させる。

  4. this の現在の状態のスナップショットを bindingState とする。

  5. thisレンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. instanceCount 個のインスタンスを、firstInstance から開始して描画する。 各プリミティブは vertexCount 頂点から成り、firstVertex から開始する。 bindingStaterenderState の状態で描画する。

drawIndexed(indexCount, instanceCount, firstIndex, baseVertex, firstInstance)

インデックス付きプリミティブを描画します。 詳細な仕様については § 23.2 レンダリング を参照してください。

呼び出し対象: GPURenderCommandsMixin this.

引数:

GPURenderCommandsMixin.drawIndexed(indexCount, instanceCount, firstIndex, baseVertex, firstInstance) メソッドの引数。
パラメータ Nullable Optional 説明
indexCount GPUSize32 描画するインデックス数。
instanceCount GPUSize32 描画するインスタンス数。
firstIndex GPUSize32 インデックスバッファ内の描画開始位置(インデックス単位のオフセット)。
baseVertex GPUSignedOffset32 各インデックス値に頂点バッファへのインデックス時に加算する値。
firstInstance GPUSize32 描画する最初のインスタンス。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. thisエンコーダ状態の検証を行う。false を返した場合は return。

  2. 次の条件のいずれかを満たさない場合は、this を無効化して return。

  3. this.[[drawCount]] を 1 増加する。

  4. this の現在の状態のスナップショットを bindingState とする。

  5. thisレンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. instanceCount 個のインスタンスを firstInstance から開始して描画する。 各プリミティブは indexCount 個のインデックス付き頂点から成り、firstIndex から baseVertex の頂点で開始する。 bindingStaterenderState の状態で描画する。

注: WebGPUアプリケーションは、GPUVertexStepMode "vertex" を持つバインド済み頂点バッファの範囲外のインデックスデータを使用すべきではありません。 WebGPU実装ごとにこの扱いは異なり、幅広い挙動が許容されます。 描画呼び出し全体が破棄される場合や、範囲外属性へのアクセスは WGSL の 不正なメモリ参照として扱われます。

drawIndirect(indirectBuffer, indirectOffset)

GPUBuffer から読み取ったパラメータを使ってプリミティブを描画します。 詳細な仕様は § 23.2 レンダリング を参照してください。

バッファにエンコードされる 間接描画パラメータ32ビット符号なし整数値を4つ(合計16バイト) 連続で格納したブロックであり、draw() の引数と同じ順序です。 例:

let drawIndirectParameters = new Uint32Array(4);
drawIndirectParameters[0] = vertexCount;
drawIndirectParameters[1] = instanceCount;
drawIndirectParameters[2] = firstVertex;
drawIndirectParameters[3] = firstInstance;

firstInstance に対応する値は、"indirect-first-instance" feature が有効の場合を除き、0でなければなりません。"indirect-first-instance" feature が有効でない場合、firstInstance が0以外だと drawIndirect() の呼び出しは何も行いません(no-op)。

呼び出し対象: GPURenderCommandsMixin this.

引数:

GPURenderCommandsMixin.drawIndirect(indirectBuffer, indirectOffset) メソッドの引数。
パラメータ Nullable Optional 説明
indirectBuffer GPUBuffer 間接描画パラメータを含むバッファ。
indirectOffset GPUSize64 indirectBuffer 内の描画データの開始位置(バイト単位のオフセット)。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. thisエンコーダ状態の検証を行う。false を返した場合は return。

  2. 次の条件のいずれかを満たさない場合は、this を無効化して return。

  3. indirectBuffer[[usage scope]]input 用として追加する。

  4. this.[[drawCount]] を 1 増加する。

  5. this の現在の状態のスナップショットを bindingState とする。

  6. thisレンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. vertexCountindirectBufferindirectOffset バイトから符号なし32ビット整数として読み取る。

  2. instanceCountindirectBuffer の (indirectOffset + 4) バイトから符号なし32ビット整数として読み取る。

  3. firstVertexindirectBuffer の (indirectOffset + 8) バイトから符号なし32ビット整数として読み取る。

  4. firstInstanceindirectBuffer の (indirectOffset + 12) バイトから符号なし32ビット整数として読み取る。

  5. instanceCount 個のインスタンスを firstInstance から開始して描画する。 各プリミティブは vertexCount 頂点から成り、firstVertex から開始する。 bindingStaterenderState の状態で描画する。

drawIndexedIndirect(indirectBuffer, indirectOffset)

GPUBuffer から読み取ったパラメータでインデックス付きプリミティブを描画します。 詳細な仕様は § 23.2 レンダリング を参照してください。

バッファにエンコードされる 間接drawIndexedパラメータ32ビット値5個(合計20バイト) を順に詰めたブロックであり、drawIndexed() の引数と同じ順序です。 baseVertex に対応する値は符号付き32ビット整数、それ以外は符号なし32ビット整数です。 例:

let drawIndexedIndirectParameters = new Uint32Array(5);
let drawIndexedIndirectParametersSigned = new Int32Array(drawIndexedIndirectParameters.buffer);
drawIndexedIndirectParameters[0] = indexCount;
drawIndexedIndirectParameters[1] = instanceCount;
drawIndexedIndirectParameters[2] = firstIndex;
// baseVertex は符号付き値。
drawIndexedIndirectParametersSigned[3] = baseVertex;
drawIndexedIndirectParameters[4] = firstInstance;

firstInstance に対応する値は "indirect-first-instance" feature が有効の場合を除き、0でなければなりません。"indirect-first-instance" feature が有効でない場合、firstInstance が0以外だと drawIndexedIndirect() の呼び出しは何も行いません(no-op)。

呼び出し対象: GPURenderCommandsMixin this.

引数:

GPURenderCommandsMixin.drawIndexedIndirect(indirectBuffer, indirectOffset) メソッドの引数。
パラメータ Nullable Optional 説明
indirectBuffer GPUBuffer 間接drawIndexedパラメータを含むバッファ。
indirectOffset GPUSize64 indirectBuffer 内の描画データの開始位置(バイト単位のオフセット)。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. thisエンコーダ状態の検証を行う。false を返した場合は return。

  2. 次の条件のいずれかを満たさない場合は、this を無効化して return。

  3. indirectBuffer[[usage scope]]input 用として追加する。

  4. this.[[drawCount]] を 1 増加する。

  5. this の現在の状態のスナップショットを bindingState とする。

  6. thisレンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. indexCountindirectBufferindirectOffset バイトから符号なし32ビット整数として読み取る。

  2. instanceCountindirectBuffer の (indirectOffset + 4) バイトから符号なし32ビット整数として読み取る。

  3. firstIndexindirectBuffer の (indirectOffset + 8) バイトから符号なし32ビット整数として読み取る。

  4. baseVertexindirectBuffer の (indirectOffset + 12) バイトから符号付き32ビット整数として読み取る。

  5. firstInstanceindirectBuffer の (indirectOffset + 16) バイトから符号なし32ビット整数として読み取る。

  6. instanceCount 個のインスタンスを firstInstance から開始して描画する。 各プリミティブは indexCount インデックス付き頂点から成り、firstIndex から baseVertex の頂点で開始する。 bindingStaterenderState の状態で描画する。

GPURenderCommandsMixin encoder描画可能かどうかを判定するには、 以下の デバイスタイムライン のステップを実行します:
  1. 以下の条件のいずれかを満たさない場合は、false を返す:

    それ以外の場合は true を返す。

GPURenderCommandsMixin encoderインデックス付き描画が可能かどうかを判定するには、 以下の デバイスタイムライン のステップを実行します:
  1. 以下の条件のいずれかを満たさない場合は、false を返す:

    それ以外の場合は true を返す。

17.2.2. ラスタライズ状態

GPURenderPassEncoder には、描画コマンドがこのエンコーダで使用されるアタッチメントにラスタライズされる方法に影響するいくつかのメソッドがあります。

setViewport(x, y, width, height, minDepth, maxDepth)

ラスタライズ段階で使用されるビューポートを設定し、正規化デバイス座標からビューポート座標へ線形マッピングします。

呼び出し対象: GPURenderPassEncoder this.

引数:

GPURenderPassEncoder.setViewport(x, y, width, height, minDepth, maxDepth) メソッドの引数。
パラメータ Nullable Optional 説明
x float ビューポートの最小X値(ピクセル単位)。
y float ビューポートの最小Y値(ピクセル単位)。
width float ビューポートの幅(ピクセル単位)。
height float ビューポートの高さ(ピクセル単位)。
minDepth float ビューポートの最小深度値。
maxDepth float ビューポートの最大深度値。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. maxViewportRangethis.limits.maxTextureDimension2D × 2 とする。

  2. 以下の条件のいずれかを満たさない場合は、this を無効化して return。

    • x ≥ -maxViewportRange

    • y ≥ -maxViewportRange

    • 0widththis.limits.maxTextureDimension2D

    • 0heightthis.limits.maxTextureDimension2D

    • x + widthmaxViewportRange1

    • y + heightmaxViewportRange1

    • 0.0minDepth1.0

    • 0.0maxDepth1.0

    • minDepthmaxDepth

  3. レンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. x, y, width, height を一様な精度(少なくとも整数丸め以上)で丸める。

  2. renderState.[[viewport]]x, y, width, height, minDepth, maxDepth の範囲を設定する。

setScissorRect(x, y, width, height)

ラスタライズ段階で使用するシザー矩形を設定します。 ビューポート座標へ変換された後、シザー矩形外に該当するフラグメントは破棄されます。

呼び出し対象: GPURenderPassEncoder this.

引数:

GPURenderPassEncoder.setScissorRect(x, y, width, height) メソッドの引数。
パラメータ Nullable Optional 説明
x GPUIntegerCoordinate シザー矩形の最小X値(ピクセル単位)。
y GPUIntegerCoordinate シザー矩形の最小Y値(ピクセル単位)。
width GPUIntegerCoordinate シザー矩形の幅(ピクセル単位)。
height GPUIntegerCoordinate シザー矩形の高さ(ピクセル単位)。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. this のエンコーダ状態を検証し、false を返した場合は return。

  2. 以下の条件のいずれかを満たさない場合は、this を無効化して return。

  3. レンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. renderState.[[scissorRect]]x, y, width, height の範囲を設定する。

setBlendConstant(color)

"constant""one-minus-constant" GPUBlendFactor で使用される定数ブレンドカラーおよびアルファ値を設定します。

呼び出し対象: GPURenderPassEncoder this.

引数:

GPURenderPassEncoder.setBlendConstant(color) メソッドの引数。
パラメータ Nullable Optional 説明
color GPUColor ブレンド時に使用する色。

返り値: undefined

コンテンツタイムラインのステップ:

  1. ? GPUColor の形状を検証する(color)。

  2. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. this のエンコーダ状態を検証し、false を返した場合は return。

  2. レンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. renderState.[[blendConstant]]color を設定する。

setStencilReference(reference)

[[stencilReference]] の値を、"replace" GPUStencilOperation のステンシルテストで使用する値に設定します。

呼び出し対象: GPURenderPassEncoder this.

引数:

GPURenderPassEncoder.setStencilReference(reference) メソッドの引数。
パラメータ Nullable Optional 説明
reference GPUStencilValue 新しいステンシルリファレンス値。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. this のエンコーダ状態を検証し、false を返した場合は return。

  2. レンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. renderState.[[stencilReference]]reference を設定する。

17.2.3. クエリ

beginOcclusionQuery(queryIndex)
呼び出し対象: GPURenderPassEncoder this.

引数:

GPURenderPassEncoder.beginOcclusionQuery(queryIndex) メソッドの引数。
パラメータ Nullable Optional 説明
queryIndex GPUSize32 クエリセット内のクエリのインデックス。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. thisのエンコーダ状態を検証する。 もしfalseを返した場合は、returnする。

  2. 以下の条件のいずれかを満たさない場合は、this を無効化して return。

  3. this.[[occlusion_query_active]]true に設定する。

  4. レンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. renderState.[[occlusionQueryIndex]]queryIndex を設定する。

endOcclusionQuery()
呼び出し対象: GPURenderPassEncoder this.

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. thisのエンコーダ状態を検証する。 もしfalseを返した場合は、returnする。

  2. 以下の条件のいずれかを満たさない場合は、this を無効化して return。

  3. this.[[occlusion_query_active]]false に設定する。

  4. レンダーコマンドをエンキューし、実行時に キュータイムラインrenderState を使用して後続のステップを実行する。

キュータイムラインのステップ:
  1. passingFragments を、対応する beginOcclusionQuery() コマンドの実行以降、全てのフラグメントテストを通過したフラグメントサンプルが1つでもあれば非ゼロ、なければゼロとする。

    注: 描画呼び出しが行われなかった場合、passingFragments はゼロになる。

  2. passingFragmentsthis.[[occlusion_query_set]] のインデックス renderState.[[occlusionQueryIndex]] に書き込む。

17.2.4. バンドル

executeBundles(bundles)

指定した GPURenderBundle に事前に記録されたコマンドを、このレンダーパスの一部として実行します。

GPURenderBundle を実行すると、レンダーパスのパイプライン、バインドグループ、頂点・インデックスバッファを継承しません。GPURenderBundle の実行後、レンダーパスのパイプライン、バインドグループ、頂点/インデックスバッファ状態は初期値(空の値)にクリアされます。

注: 状態はクリアされ、以前の状態に戻るのではありません。 これは、GPURenderBundle の実行数がゼロの場合でも発生します。

呼び出し対象: GPURenderPassEncoder this.

引数:

GPURenderPassEncoder.executeBundles(bundles) メソッドの引数。
パラメータ Nullable Optional 説明
bundles sequence<GPURenderBundle> 実行するレンダーバンドルのリスト。

返り値: undefined

コンテンツタイムラインのステップ:

  1. 以降の手順は this.[[device]]デバイスタイムライン 上で実行する。

デバイスタイムラインのステップ:
  1. エンコーダー状態を検証する this の。false を返した場合は、return する。

  2. 以下の条件のいずれかを満たさない場合は、this を無効化して return。

  3. bundle について:

    1. this.[[drawCount]]bundle.[[drawCount]] だけ増やす。

    2. マージする bundle.[[usage scope]]this.[[usage scope]] に。

    3. レンダーコマンドをエンキューする this 上で、実行時に renderState を使って Queue timeline に以下の手順を発行する:

      Queue timeline の手順:
      1. bundle.[[command_list]] の各コマンドを renderState で実行する。

        注: renderState はレンダーバンドルの実行では変更できない。バインディング状態は バンドルのエンコード時にすでにキャプチャされており、バンドルの実行時には使用されない。

  4. レンダーパスのバインディング状態をリセットする。

GPURenderPassEncoder encoderレンダーパスのバインディング状態をリセットするには、 以下の デバイスタイムラインのステップを実行します:
  1. クリアする encoder.[[bind_groups]]

  2. encoder.[[pipeline]]null に設定する。

  3. encoder.[[index_buffer]]null に設定する。

  4. クリアする encoder.[[vertex_buffers]]

18. バンドル

バンドルは部分的かつ制限されたパスで、一度エンコードすると通常のコマンドバッファのように使用後に失効することなく、今後のパスエンコーダの一部として複数回実行できます。これにより、繰り返し変更なく発行されるコマンドのエンコードおよびサブミッションのオーバーヘッドを減らすことができます。

18.1. GPURenderBundle

[Exposed=(Window, Worker), SecureContext]
interface GPURenderBundle {
};
GPURenderBundle includes GPUObjectBase;
[[command_list]], of type list<GPU command>

リストGPUコマンドの)であり、 GPURenderPassEncoder に提出される。 GPURenderBundle が実行される時に。

[[usage scope]], of type usage scope, initially empty

このレンダーバンドルの使用スコープで、後にGPURenderPassEncoder[[usage scope]]executeBundles()でマージされます。

[[layout]], of type GPURenderPassLayout

レンダーバンドルのレイアウト。

[[depthReadOnly]], of type boolean

trueの場合、実行時に深度成分が変更されないことを示します。

[[stencilReadOnly]], of type boolean

trueの場合、実行時にステンシル成分が変更されないことを示します。

[[drawCount]], of type GPUSize64

このGPURenderBundle内の描画コマンド数。

18.1.1. レンダーバンドルの作成

dictionary GPURenderBundleDescriptor
         : GPUObjectDescriptorBase {
};
[Exposed=(Window, Worker), SecureContext]
interface GPURenderBundleEncoder {
    GPURenderBundle finish(optional GPURenderBundleDescriptor descriptor = {});
};
GPURenderBundleEncoder includes GPUObjectBase;
GPURenderBundleEncoder includes GPUCommandsMixin;
GPURenderBundleEncoder includes GPUDebugCommandsMixin;
GPURenderBundleEncoder includes GPUBindingCommandsMixin;
GPURenderBundleEncoder includes GPURenderCommandsMixin;
createRenderBundleEncoder(descriptor)

GPURenderBundleEncoder を作成します。

呼び出し対象: GPUDevice this.

引数:

GPUDevice.createRenderBundleEncoder(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPURenderBundleEncoderDescriptor 作成するGPURenderBundleEncoderの記述。

返り値: GPURenderBundleEncoder

コンテンツタイムラインのステップ:

  1. ? テクスチャフォーマット必須機能の検証descriptor.colorFormatsの各非null要素についてthis.[[device]]で実行する。

  2. descriptor.depthStencilFormat指定されている場合:

    1. ? テクスチャフォーマットの必須機能を検証するdescriptor.depthStencilFormatthis.[[device]])。

  3. e! 新しいWebGPUオブジェクトの作成(this, GPURenderBundleEncoder, descriptor)とする。

  4. thisデバイスタイムライン初期化ステップを実行する。

  5. eを返す。

デバイスタイムライン 初期化ステップ:
  1. 以下の条件のいずれかを満たさない場合、 バリデーションエラーを生成し、eを無効化してreturn。

  2. e.[[layout]]descriptorに含まれるGPURenderPassLayoutインターフェイスのコピーを設定する。

  3. e.[[depthReadOnly]]descriptor.depthReadOnlyを設定する。

  4. e.[[stencilReadOnly]]descriptor.stencilReadOnlyを設定する。

  5. e.[[state]] を"open"に設定。

  6. e.[[drawCount]] を0に設定。

18.1.2. エンコーディング

dictionary GPURenderBundleEncoderDescriptor
         : GPURenderPassLayout {
    boolean depthReadOnly = false;
    boolean stencilReadOnly = false;
};
depthReadOnly, boolean、デフォルトは false

trueの場合、レンダーバンドルが実行されるレンダーパスの GPURenderPassDepthStencilAttachment の深度成分を変更しないことを示します。

read-only depth-stencil を参照。

stencilReadOnly, boolean、デフォルトは false

trueの場合、レンダーバンドルが実行されるレンダーパスの GPURenderPassDepthStencilAttachment のステンシル成分を変更しないことを示します。

read-only depth-stencil を参照。

18.1.3. ファイナライズ

finish(descriptor)

レンダーバンドルコマンドシーケンスの記録を完了します。

呼び出し対象: GPURenderBundleEncoder this.

引数:

GPURenderBundleEncoder.finish(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPURenderBundleDescriptor

返り値: GPURenderBundle

コンテンツタイムラインのステップ:

  1. renderBundle を新しい GPURenderBundle とする。

  2. this.[[device]]デバイスタイムラインfinish steps を実行する。

  3. renderBundle を返す。

デバイスタイムラインfinish steps:
  1. 次の要件をすべて満たしていれば validationSucceededtrue、満たさない場合は false

  2. this.[[state]] を "ended" に設定する。

  3. validationSucceededfalse の場合:

    1. バリデーションエラーを生成

    2. invalidated GPURenderBundle を返す。

  4. renderBundle.[[command_list]]this.[[commands]] を設定する。

  5. renderBundle.[[usage scope]]this.[[usage scope]] を設定する。

  6. renderBundle.[[drawCount]]this.[[drawCount]] を設定する。

19. キュー

19.1. GPUQueueDescriptor

GPUQueueDescriptor はキューリクエストを記述します。

dictionary GPUQueueDescriptor
         : GPUObjectDescriptorBase {
};

19.2. GPUQueue

[Exposed=(Window, Worker), SecureContext]
interface GPUQueue {
    undefined submit(sequence<GPUCommandBuffer> commandBuffers);

    Promise<undefined> onSubmittedWorkDone();

    undefined writeBuffer(
        GPUBuffer buffer,
        GPUSize64 bufferOffset,
        AllowSharedBufferSource data,
        optional GPUSize64 dataOffset = 0,
        optional GPUSize64 size);

    undefined writeTexture(
        GPUTexelCopyTextureInfo destination,
        AllowSharedBufferSource data,
        GPUTexelCopyBufferLayout dataLayout,
        GPUExtent3D size);

    undefined copyExternalImageToTexture(
        GPUCopyExternalImageSourceInfo source,
        GPUCopyExternalImageDestInfo destination,
        GPUExtent3D copySize);
};
GPUQueue includes GPUObjectBase;

GPUQueue には以下のメソッドがあります:

writeBuffer(buffer, bufferOffset, data, dataOffset, size)

指定したデータを GPUBuffer に書き込む操作を発行します。

呼び出し対象: GPUQueue this.

引数:

GPUQueue.writeBuffer(buffer, bufferOffset, data, dataOffset, size) メソッドの引数。
パラメータ Nullable Optional 説明
buffer GPUBuffer 書き込み先のバッファ。
bufferOffset GPUSize64 buffer の書き込み開始位置(バイト単位のオフセット)。
data AllowSharedBufferSource buffer に書き込むデータ。
dataOffset GPUSize64 data の書き込み開始位置。dataTypedArray の場合は要素単位、それ以外はバイト単位。
size GPUSize64 data から buffer に書き込む内容のサイズ。dataTypedArray の場合は要素単位、それ以外はバイト単位。

返り値: undefined

コンテンツタイムラインのステップ:

  1. dataArrayBuffer または DataView の場合、要素型は "byte"。 それ以外の場合、data は TypedArray であり、要素型は TypedArray の型とする。

  2. dataSizedata の要素数とする。

  3. size が指定されていない場合、 contentsSizedataSizedataOffset とする。 指定されている場合は contentsSizesize とする。

  4. 次の条件のいずれかを満たさない場合、 OperationError を投げて return。

    • contentsSize ≥ 0。

    • dataOffset + contentsSizedataSize

    • contentsSize(バイト換算)は4バイトの倍数であること。

  5. dataContentsbuffer source のコピーとして data から取得する。

  6. contentsdataContentsdataOffset から contentsSize 要素分とする。

  7. 後続のステップを thisデバイスタイムラインで実行する。

デバイスタイムラインのステップ:
  1. 次の条件のいずれかを満たさない場合、 バリデーションエラー生成して return。

  2. 後続のステップを thisキュータイムラインで実行する。

キュータイムラインのステップ:
  1. contentsbufferbufferOffset から書き込む。

writeTexture(destination, data, dataLayout, size)

指定したデータを GPUTexture に書き込む操作を発行します。

呼び出し対象: GPUQueue this.

引数:

GPUQueue.writeTexture(destination, data, dataLayout, size) メソッドの引数。
パラメータ Nullable Optional 説明
destination GPUTexelCopyTextureInfo 書き込み先のテクスチャサブリソースと原点。
data AllowSharedBufferSource destination に書き込むデータ。
dataLayout GPUTexelCopyBufferLayout data の内容のレイアウト。
size GPUExtent3D data から destination に書き込む内容の範囲。

返り値: undefined

コンテンツタイムラインのステップ:

  1. ? GPUOrigin3D 形状を検証(destination.origin)。

  2. ? GPUExtent3D 形状を検証(size)。

  3. dataBytesbuffer source のコピーとして data から取得する。

    注: これは data の全てをデバイスタイムラインへコピーするよう記述されているが、実際には必要な分だけコピーされるよう最適化されるべきです。

  4. 後続のステップを thisデバイスタイムラインで実行する。

デバイスタイムラインのステップ:
  1. alignedfalse とする。

  2. dataLengthdataBytes.length とする。

  3. 次の条件のいずれかを満たさない場合、 バリデーションエラー生成して return。

    注: GPUCommandEncoder.copyBufferToTexture() とは異なり、dataLayout.bytesPerRow および dataLayout.offset にアライメント要件はない。

  4. 後続のステップを thisキュータイムラインで実行する。

キュータイムラインのステップ:
  1. blockWidthdestination.textureテクセルブロック幅 とする。

  2. blockHeightdestination.textureテクセルブロック高さ とする。

  3. dstOrigindestination.origin とする。

  4. dstBlockOriginX を (dstOrigin.x ÷ blockWidth) とする。

  5. dstBlockOriginY を (dstOrigin.y ÷ blockHeight) とする。

  6. blockColumns を (copySize.width ÷ blockWidth) とする。

  7. blockRows を (copySize.height ÷ blockHeight) とする。

  8. Assert により dstBlockOriginXdstBlockOriginYblockColumnsblockRows が整数であることを確認する。

  9. [0, copySize.depthOrArrayLayers − 1] の範囲で z ごとに:

    1. dstSubregiontexture copy sub-region (z + dstOrigin.z) of destination とする。

    2. [0, blockRows − 1] の範囲で y ごとに:

      1. [0, blockColumns − 1] の範囲で x ごとに:

        1. blockOffsettexel block byte offset (dataLayout, (x, y, z), destination.texture) とする。

        2. テクセルブロック (dstBlockOriginX + x, dstBlockOriginY + y) の dstSubregion等価テクセル表現dataBytesblockOffset から記述されるものにする。

copyExternalImageToTexture(source, destination, copySize)

プラットフォーム画像/キャンバスの内容を宛先テクスチャにコピーします。

この操作は GPUCopyExternalImageDestInfo のパラメータに従って 色空間エンコード を行います。

-srgb テクスチャへのコピーは、対応する非 -srgb フォーマットへのコピーとは、同じテクスチャバイトになり、デコード値は異なります。 コピー操作後、宛先テクスチャのサンプリング結果は、フォーマットが -srgb かどうかで異なります(他が同じ場合)。

注:
"webgl"/"webgl2" コンテキストキャンバスからコピーする場合、 WebGL 描画バッファはフレーム提示サイクルの一部タイミング(画像が表示のため合成器に移動された後)に存在しないことがあります。 これを避けるには、以下のいずれかを行います:
  • WebGLレンダリング操作と同じタスク内で copyExternalImageToTexture() を発行し、コピーがWebGLキャンバス提示前に行われるようにする。

  • それができない場合は、preserveDrawingBuffer オプションを WebGLContextAttributestrue に設定することで、提示後も描画バッファにフレーム内容のコピーが残ります。 ただし、この追加コピーにはパフォーマンスコストが発生する可能性があります。

呼び出し対象: GPUQueue this.

引数:

GPUQueue.copyExternalImageToTexture(source, destination, copySize) メソッドの引数。
パラメータ Nullable Optional 説明
source GPUCopyExternalImageSourceInfo コピー元画像および destination への原点情報。
destination GPUCopyExternalImageDestInfo 書き込み先のテクスチャサブリソース、原点、エンコードメタデータ。
copySize GPUExtent3D source から destination に書き込む内容の範囲。

返り値: undefined

コンテンツタイムラインのステップ:

  1. ? GPUOrigin2D の形状を検証(source.origin).

  2. ? GPUOrigin3D の形状を検証(destination.origin).

  3. ? GPUExtent3D の形状を検証(copySize)。

  4. sourceImagesource.source

  5. sourceImageオリジン・クリーンでない場合、SecurityError を throw して return。

  6. 次のいずれかの要件を満たさない場合、OperationError を throw して return。

    • source.origin.x + copySize.widthsourceImage の幅以下でなければならない。

    • source.origin.y + copySize.heightsourceImage の高さ以下でなければならない。

    • copySize.depthOrArrayLayers は 1 以下である必要がある。

  7. usability? 画像引数の usability をチェック(source)とする。

  8. 後続のステップを this のデバイスタイムラインで実行する。

デバイスタイムラインの手順:
  1. texturedestination.texture とする。

  2. 以下のいずれかの要件が満たされない場合、バリデーションエラーを生成してリターンする。

  3. もし copySize.depthOrArrayLayers が0より大きい場合、以降の手順を thisキュータイムライン上で実行する。

キュータイムラインのステップ:
  1. destination.textureテクセルブロック幅 が 1 であり、 テクセルブロック高さ も 1 であり、 copySize.depthOrArrayLayers が 1 であることをアサートする。

  2. srcOriginsource.origin とする。

  3. dstOrigindestination.origin とする。

  4. dstSubregiontexture copy sub-region (dstOrigin.z) of destination とする。

  5. y について [0, copySize.height − 1] の範囲で:

    1. srcYsource.flipYfalse の場合 y、 そうでなければ (copySize.height − 1 − y) とする。

    2. x について [0, copySize.width − 1] の範囲で:

      1. srcColor を、source.source の (srcOrigin.x + x, srcOrigin.y + srcY) ピクセルの カラーマネージメント済み色値とする。

      2. dstColor を、destination.colorSpace および destination.premultipliedAlpha に従って必要な カラーエンコードsrcColor に適用した結果の数値RGBA値とする。

      3. もし texture.format-srgb フォーマットの場合:

        1. dstColor に sRGB 非線形→線形変換を適用した結果を設定する。

        注: これは次のステップで -srgb フォーマットに書き込む際に行われる sRGB 線形→非線形変換を打ち消すためです。 これにより、sRGB系入力画像の精度が失われず、元画像の線形色値をテクスチャから読み取れるようになります (-srgb フォーマットを使う主な目的)。

      4. dstSubregiontexel block (dstOrigin.x + x, dstOrigin.y + y) に dstColor等価なテクセル表現を設定する。

submit(commandBuffers)

このキュー上でGPUによるコマンドバッファの実行をスケジュールします。

提出されたコマンドバッファは再利用できません。

呼び出し対象: GPUQueue this.

引数:

GPUQueue.submit(commandBuffers) メソッドの引数。
パラメータ Nullable Optional 説明
commandBuffers sequence<GPUCommandBuffer>

返り値: undefined

コンテンツタイムラインのステップ:

  1. 後続のステップを this のデバイスタイムラインで実行する:

デバイスタイムラインのステップ:
  1. 以下の要件のいずれかが満たされていない場合、バリデーションエラーを生成する GPUCommandBuffercommandBuffers 内で無効化し、returnする。

  2. すべての commandBuffer について:

    1. commandBuffer を無効化する。

  3. 後続のステップを this のキュータイムラインで実行する:

キュータイムラインのステップ:
  1. すべての commandBuffer について:

    1. commandBuffer.[[command_list]] の各コマンドを実行する。

onSubmittedWorkDone()

このキューが現時点までに提出されたすべての処理を終了したときに resolve される Promise を返します。

この Promise の resolve は、当該呼び出し以前に mapAsync() を呼び出し、その後このキューでのみ利用された GPUBuffer の mapAsync の完了も意味します。

呼び出し対象: GPUQueue this.

返り値: Promise<undefined>

コンテンツタイムラインのステップ:

  1. contentTimeline を現在の コンテンツタイムラインとする。

  2. promise新しいPromiseとする。

  3. thisデバイスタイムラインsynchronization steps を実行する。

  4. promise を返す。

デバイスタイムラインsynchronization steps:
  1. event現在キューに入っているすべての処理が完了したときに発生させる。

  2. タイムラインイベント event をリッスン し、this.[[device]]contentTimeline 上で後続のステップを処理する。

コンテンツタイムラインのステップ:
  1. 解決する promise

20. クエリ

20.1. GPUQuerySet

[Exposed=(Window, Worker), SecureContext]
interface GPUQuerySet {
    undefined destroy();

    readonly attribute GPUQueryType type;
    readonly attribute GPUSize32Out count;
};
GPUQuerySet includes GPUObjectBase;

GPUQuerySet には以下の 不変プロパティがあります:

type, GPUQueryType, readonly

この GPUQuerySet が管理するクエリの種類。

count, GPUSize32Out, readonly

この GPUQuerySet が管理するクエリ数。

GPUQuerySet には以下の デバイスタイムラインプロパティがあります:

[[destroyed]], 型 boolean, 初期値 false

クエリセットが破棄されると、いかなる操作にも使用できなくなり、基礎となるメモリが解放される可能性があります。

20.1.1. クエリセットの作成

GPUQuerySetDescriptorGPUQuerySet の作成時に使用するオプションを指定します。

dictionary GPUQuerySetDescriptor
         : GPUObjectDescriptorBase {
    required GPUQueryType type;
    required GPUSize32 count;
};
type, GPUQueryType

GPUQuerySet が管理するクエリの種類。

count, GPUSize32

GPUQuerySet が管理するクエリ数。

createQuerySet(descriptor)

GPUQuerySet を作成します。

呼び出し対象: GPUDevice this.

引数:

GPUDevice.createQuerySet(descriptor) メソッドの引数。
パラメータ Nullable Optional 説明
descriptor GPUQuerySetDescriptor 作成する GPUQuerySet の記述。

返り値: GPUQuerySet

コンテンツタイムラインのステップ:

  1. descriptor.type"timestamp" の場合、"timestamp-query"this で有効でなければ:

    1. TypeError を throw する。

  2. q! 新しい WebGPU オブジェクトの作成(this, GPUQuerySet, descriptor)とする。

  3. q.typedescriptor.type を設定する。

  4. q.countdescriptor.count を設定する。

  5. thisデバイスタイムライン初期化ステップ を実行する。

  6. q を返す。

デバイスタイムライン初期化ステップ:
  1. 次のいずれかの要件を満たさない場合、バリデーションエラーを生成し、 q を無効化して return。

    • thislost であってはならない。

    • descriptor.count は 4096 以下でなければならない。

  2. クエリセットの各エントリがゼロとなるようにデバイス領域を確保する。

    もし副作用なしに確保に失敗した場合は、 メモリ不足エラーを生成し、q を無効化して return。

32個のオクルージョンクエリ結果を保持する GPUQuerySet の作成例。
const querySet = gpuDevice.createQuerySet({
    type: 'occlusion',
    count: 32
});

20.1.2. クエリセットの破棄

アプリケーションが GPUQuerySet を不要と判断した場合、destroy() を呼び出すことでガベージコレクション前にアクセスを失うことができます。

GPUQuerySet には以下のメソッドがあります:

destroy()

GPUQuerySet を破棄します。

呼び出し対象: GPUQuerySet this.

返り値: undefined

コンテンツタイムラインのステップ:

  1. 後続のステップを デバイスタイムラインで実行する。

デバイスタイムラインのステップ:
  1. this.[[destroyed]]true に設定する。

20.2. クエリタイプ

enum GPUQueryType {
    "occlusion",
    "timestamp",
};

20.3. オクルージョンクエリ

オクルージョンクエリはレンダーパスでのみ利用でき、シザー、サンプルマスク、アルファ・トゥ・カバレージ、ステンシル、深度テストなどを含む一連の描画コマンドに対して、すべてのフラグメントテストを通過したフラグメントサンプル数を問い合わせます。クエリの結果が非ゼロの場合、少なくともひとつのサンプルがテストを通過しレンダーパイプラインの出力マージ段階に到達したことを示し、0の場合はサンプルがテストを通過しなかったことを示します。

レンダーパスを開始する際、GPURenderPassDescriptor.occlusionQuerySet を設定することで、パス内でオクルージョンクエリが使用可能となります。オクルージョンクエリは beginOcclusionQuery()endOcclusionQuery() をペアで呼び出すことで開始・終了され、ネストはできません。クエリ結果は GPUBuffer64ビット符号なし整数として GPUCommandEncoder.resolveQuerySet() で解決されます。

20.4. タイムスタンプクエリ

タイムスタンプクエリは、以下の方法で GPUQuerySet にタイムスタンプを書き込むことができます:

そしてタイムスタンプ値(ナノ秒単位で 64ビット符号なし整数)を GPUBufferGPUCommandEncoder.resolveQuerySet() で解決します。

タイムスタンプ値は実装依存です。 アプリケーションは任意のタイムスタンプ結果を扱えるようにし、予期しないタイムスタンプによってアプリケーションが異常終了しないように実装すべきです。

注: 物理デバイスがタイムスタンプカウンタを時折リセットすることがあり、その結果、タイムスタンプ間の差分が負になるなど予期しない値が生じる場合があります。 これらのケースは稀であり、そのようなデータポイントは安全に破棄できます。

There is a tracking vector here. タイムスタンプクエリは高分解能タイマー(§ 2.1.7.2 デバイス/キュータイムラインのタイミング参照)を利用して実装されます。 セキュリティ・プライバシーの懸念を軽減するため、その精度は低減されなければなりません:

キュータイムラインのステップを実行して、現在のキュータイムスタンプを取得します:

注: クロスオリジン分離はデバイスタイムラインキュータイムラインには決して適用されません。そのため、crossOriginIsolatedCapabilitytrue になることはありません。

timestampWrites の検証(device, timestampWrites)

引数:

デバイスタイムラインのステップ:

  1. 以下の要件をすべて満たしていれば true、そうでなければ false を返す:

    • "timestamp-query"device で有効になっていること。

    • timestampWrites.querySetdevice と一緒に使用可能であること。

    • timestampWrites.querySet.type"timestamp" であること。

    • timestampWrites 内の書き込みインデックス(beginningOfPassWriteIndex, endOfPassWriteIndex)について:

      • 少なくとも1つは 指定されている必要がある。

      • 指定されているものについて:

        • 2つが同じ値であってはならない。

        • それぞれ timestampWrites.querySet.count 未満でなければならない。

21. キャンバス描画

21.1. HTMLCanvasElement.getContext()

GPUCanvasContext オブジェクトは getContext() メソッドを HTMLCanvasElement インスタンスに対して呼び出し、文字列リテラル 'webgpu'contextType 引数として渡すことで 作成 されます。

オフスクリーンの HTMLCanvasElement から GPUCanvasContext を取得する例:
const canvas = document.createElement('canvas');
const context = canvas.getContext('webgpu');

WebGLや2Dコンテキストの作成とは異なり、 HTMLCanvasElement.getContext()OffscreenCanvas.getContext() の第二引数(コンテキスト作成属性辞書 options)は無視されます。 代わりに GPUCanvasContext.configure() を使い、キャンバスの構成を置き換えずに変更できます。

HTMLCanvasElement または OffscreenCanvas canvas'webgpu' コンテキストを作成するには、 以下のコンテンツタイムラインのステップを実行します:
  1. context を新しい GPUCanvasContext とする。

  2. context.canvascanvas を設定する。

  3. context描画バッファを置き換える

  4. context を返す。

注: WebGPUキャンバスコンテキスト取得時に無視される options 引数が与えられた場合、実装は開発者向け警告を表示すべきです。

21.2. GPUCanvasContext

[Exposed=(Window, Worker), SecureContext]
interface GPUCanvasContext {
    readonly attribute (HTMLCanvasElement or OffscreenCanvas) canvas;

    undefined configure(GPUCanvasConfiguration configuration);
    undefined unconfigure();

    GPUCanvasConfiguration? getConfiguration();
    GPUTexture getCurrentTexture();
};

GPUCanvasContext には以下のコンテンツタイムラインプロパティがあります:

canvas, (HTMLCanvasElement or OffscreenCanvas), readonly

このコンテキストが作成されたキャンバス。

[[configuration]], 型 GPUCanvasConfiguration?, 初期値 null

このコンテキストが現在構成されているオプション。

まだ構成されていない場合や unconfigure された場合は null

[[textureDescriptor]], 型 GPUTextureDescriptor?, 初期値 null

現在構成されているテクスチャ記述子。[[configuration]] とキャンバスから導出。

まだ構成されていない場合や unconfigure された場合は null

[[drawingBuffer]], 画像、初期値は キャンバスと同じサイズの透明黒画像

描画バッファはキャンバスの作業用イメージデータです。 [[currentTexture]]getCurrentTexture()で返される)を介して書き込み可能として公開されます。

描画バッファは コンテキストの画像内容のコピー取得で使用されます。 (キャンバスが表示されたり、読み込まれたときに発生)。透明となる場合があり、 [[configuration]].alphaMode"opaque" でも同様です。 alphaMode は "コンテキストの画像内容のコピー取得"アルゴリズムの結果のみに影響します。

描画バッファは [[currentTexture]] より長く保持され、キャンバスが提示された後も以前の描画内容を含みます。 描画バッファを置き換えるでのみクリアされます。

描画バッファが読み込まれるたび、実装はすべての以前の作業(キューへのサブミット等)が [[currentTexture]] 経由で書き込まれたことを保証しなければなりません。

[[currentTexture]], 型 GPUTexture?, 初期値 null

現在のフレームで描画する GPUTexture。 下層の [[drawingBuffer]] への書き込み可能なビューを公開します。 getCurrentTexture()null の場合このスロットを生成して返します。

表示可能なキャンバスの定常状態では、currentTextureを通じて描画バッファに行われた変更は WebGPUキャンバスの描画更新時に提示されます。 このタイミングまたはそれ以前に、テクスチャは破棄され [[currentTexture]]null になり、次回 getCurrentTexture() で新しく生成されます。

currentTexture の破棄 は描画バッファの内容に影響せず、書き込みアクセスのみ早期終了します。 同じフレーム内では getCurrentTexture() は破棄済みでも同じテクスチャを返します。

Expire the current texture は currentTexture を null にします。 これは configure()、 キャンバスのリサイズ、提示、transferToImageBitmap() 等で呼ばれます。

[[lastPresentedImage]], 型 (readonly image)?, 初期値 null

このキャンバスで直近に提示された画像("WebGPUキャンバスの描画更新" で提示)。 デバイスが lost や destroy された場合、"コンテキストの画像内容のコピー取得" のフォールバックとして使われることがあります。

注: このプロパティはフォールバックを実装する場合のみ必要です(任意実装)。

GPUCanvasContext には以下のメソッドがあります:

configure(configuration)

このキャンバスのコンテキストを構成します。 この操作は描画バッファを透明黒にクリアします(描画バッファを置き換える)。

getConfiguration() による機能検出の情報を参照してください。

呼び出し対象: GPUCanvasContext this.

引数:

GPUCanvasContext.configure(configuration) メソッドの引数。
パラメータ Nullable Optional 説明
configuration GPUCanvasConfiguration コンテキストの希望構成。

返り値: undefined

コンテンツタイムラインのステップ:

  1. deviceconfiguration.device とする。

  2. ? テクスチャフォーマット必須機能の検証configuration.format および device.[[device]] で実行する。

  3. ? テクスチャフォーマット必須機能の検証configuration.viewFormats の各要素について device.[[device]] で実行する。

  4. もし サポートされているコンテキストフォーマットconfiguration.format含まない場合、 TypeError を throw する。

  5. descriptorキャンバスと構成に対する GPUTextureDescriptor (this.canvas, configuration) とする。

  6. this.[[configuration]]configuration を設定する。

    注: これは実装定義の GPUCanvasConfiguration に定義されたメンバーのみを公開します。 各メンバーの仕様に機能検出 機能検出 に関する注記がありますので参照してください。

  7. this.[[textureDescriptor]]descriptor を設定する。

  8. this描画バッファを置き換える

  9. deviceデバイスタイムラインで後続のステップを実行する。

デバイスタイムラインのステップ:
  1. 以下の要件を満たさない場合、バリデーションエラーを生成して return。

    注: この早期バリデーションは次回 configure() まで有効ですが、 size のバリデーションのみはキャンバスのリサイズ時に変化します。

unconfigure()

コンテキストの構成を解除します。構成中に生成されたテクスチャはすべて破棄されます。

呼び出し対象: GPUCanvasContext this.

返り値: undefined

コンテンツタイムラインのステップ:

  1. this.[[configuration]]null を設定する。

  2. this.[[textureDescriptor]]null を設定する。

  3. this描画バッファを置き換える

getConfiguration()

コンテキストの構成を返します。未構成の場合は null を返します。

注: このメソッドは主に 機能検出 のために存在します( GPUCanvasConfiguration のメンバーやサブメンバー)。詳細は各メンバーの仕様を参照してください。 サポートされているメンバーについては、元々指定された値を返します。

呼び出し対象: GPUCanvasContext this.

返り値: GPUCanvasConfiguration または null

コンテンツタイムラインのステップ:

  1. configurationthis.[[configuration]] のコピーとする。

  2. configuration を返す。

getCurrentTexture()

GPUTexture を取得します。これは GPUCanvasContext によって次にドキュメント上に合成されるテクスチャです。

注:
アプリケーションは 同じタスク内で getCurrentTexture() を呼び出してキャンバステクスチャにレンダリングすべきです。 そうしないと、レンダリングが完了する前に、これらの手順でテクスチャが破棄されてしまう可能性があります。

有効期限タスク(下記定義)は実装が任意です。 実装されている場合でも、タスクソースの優先順位は規定されていないため、次のタスクで早期に起こる場合もあれば、すべての他のタスクソースが空になるまで遅延する場合もあります (自動有効期限タスクソース参照)。 有効期限発生は、表示されるキャンバスが可視状態のとき (WebGPUキャンバスの描画の更新) および "現在のテクスチャの期限切れ処理" の呼び出し元のみ保証されます。

呼び出し対象: GPUCanvasContext this.

返り値: GPUTexture

コンテンツタイムラインのステップ:

  1. this.[[configuration]]null の場合、 InvalidStateError を throw して return。

  2. this.[[textureDescriptor]]null でないことを アサートする。

  3. devicethis.[[configuration]].device とする。

  4. this.[[currentTexture]]null の場合:

    1. 描画バッファを置き換える

    2. this.[[currentTexture]]device.createTexture() を呼び出し、引数に this.[[textureDescriptor]] を渡す。ただし、 GPUTexture の 基礎ストレージは this.[[drawingBuffer]] を指すものとする。

      注: テクスチャの作成に失敗した場合(例: バリデーション失敗やメモリ不足)、 エラーが発生し、無効化された GPUTexture を返します。 一部のバリデーションは configure() でも実行されますが、 実装はこの重複したバリデーションを必ず省略せず行うこと。

  5. 任意で自動期限切れタスクをキューに追加(device device を指定し、以下のステップを実行):

    1. 現在のテクスチャの期限切れ処理this に対して実行。

      注: すでに WebGPUキャンバスの描画の更新時などに 実行済みの場合は効果なし。

  6. this.[[currentTexture]] を返す。

注: 同じ GPUTexture オブジェクトは、「現在のテクスチャの有効期限切れ」が実行されるまで、 getCurrentTexture() を呼び出すたびに毎回返されます。たとえその GPUTexture が破棄されたり、バリデーションに失敗したり、割り当てに失敗していても同様です。

コンテキストの画像内容のコピーを取得するためには:

引数:

返り値: 画像内容

コンテンツタイムラインのステップ:

  1. snapshotcontext.canvas と同じサイズの透明な黒画像にする。

  2. configurationcontext.[[configuration]] とする。

  3. configurationnull の場合:

    1. snapshot を返す。

    注: null は、contextが未設定または unconfigured の場合に configuration となる。 これは、canvasにcontextがない場合の挙動と同じである。

  4. 提出されたすべての作業項目(例: queue submission)が画像(context.[[currentTexture]] を通じて)への書き込みを完了していることを保証する。

  5. configuration.device有効 である場合:

    1. snapshotcontext.[[drawingBuffer]] のコピーにする。

    それ以外の場合、context.[[lastPresentedImage]]null でなければ:

    1. 任意で snapshotcontext.[[lastPresentedImage]] のコピーにする。

      注: これは任意である。[[lastPresentedImage]] は、デバイスロスの原因によっては存在しない場合がある。 実装はその画像にアクセス可能であっても、スキップしてもよい。

  6. alphaModeconfiguration.alphaMode とする。

  7. alphaMode"opaque" の場合:

    1. snapshot のアルファチャンネルを 1.0 でクリアする。

      注: [[currentTexture]] が破棄されている場合(例えば "Expire the current texture" の時)、アルファチャンネルは観測できなくなり、実装はインプレースでクリアしてもよい。

    2. snapshot に不透明のタグを付ける。

    それ以外の場合:

    1. snapshotalphaMode のタグを付ける。

  8. snapshotcolorSpace および toneMappingconfiguration の値でタグ付けする。

  9. snapshot を返す。

描画バッファを置き換えるには、GPUCanvasContext contextに対して次のコンテンツタイムラインのステップを実行する:
  1. 現在のテクスチャの期限切れ処理context に対して実行する。

  2. configurationcontext.[[configuration]] とする。

  3. context.[[drawingBuffer]]context.canvas と同じ サイズの透過黒画像を設定する。

    • configuration が null の場合、drawing buffer は色空間 "srgb" とタグ付けされる。この場合、drawing buffer は設定されるまで空白のまま。

    • そうでなければ、drawing buffer は指定の configuration.format を持ち、指定の configuration.colorSpaceconfiguration.toneMapping でタグ付けされる。

    注: configuration.alphaMode は "コンテキストの画像内容のコピーを取得する" までは無視される。

    注:
    新しく置き換えられた drawing buffer 画像は透過黒でクリアされたかのように振る舞うが、"discard"後のように、 必要になった時のみ lazy にクリアしてもよい。

    注: drawing buffer が既にクリア済みで正しい設定であれば、これは多くの場合何も起こらない(no-op)。

現在のテクスチャの期限切れ処理は、GPUCanvasContext context に対して以下の コンテンツタイムラインのステップを実行する:
  1. context.[[currentTexture]]null でない場合:

    1. context.[[currentTexture]].destroy() を呼び出す(context.[[drawingBuffer]] は破棄しない)ことで画像への書き込みアクセスを終了する。

    2. context.[[currentTexture]]null に設定する。

21.3. HTML仕様フック

以下のアルゴリズムはHTML仕様のアルゴリズムへ「フック」し、指定されたタイミングで実行されなければなりません。

HTMLCanvasElement または OffscreenCanvas 上で GPUCanvasContext context の "bitmap" が読み取られる場合、以下の コンテンツタイムラインステップを実行する:
  1. context画像内容のコピーを返す。

注:
この処理は様々な場面で発生します:

alphaMode"opaque" の場合、アルファチャンネルをクリアする必要があります。実装がアルファチャンネルを無視して画像を読み取る/表示できる場合、このステップを省略しても構いません。

アプリケーションがキャンバスを相互運用のみに使い、表示を目的としない場合は、必要がなければ "opaque" を避けて下さい。

WebGPUキャンバスの描画の更新HTMLCanvasElement または OffscreenCanvas placeholder canvas elementを持つもの) で、キャンバスの画像内容取得の前に、 イベントループ処理モデルの以下のサブステップで発生します:

注: ServiceWorker や SharedWorker には「描画の更新」ステップはありません。これらはユーザー可視のキャンバスを描画できないためです。 requestAnimationFrame()ServiceWorkerGlobalScopeSharedWorkerGlobalScope にはありません。また OffscreenCanvastransferControlToOffscreen() で生成されたものはこれらのワーカーに送信できません。

以下のコンテンツタイムラインステップを実行する:

  1. 現在のテクスチャの期限切れ処理context に対して実行する。

    注: これは getCurrentTexture() でキューされたタスクで既に実行されていれば、効果はありません。

  2. context.[[lastPresentedImage]]context.[[drawingBuffer]] を設定する。

    注: これはコピーではなく参照です。current texture の期限切れ後は drawing buffer の内容は in-place で変化しません。

注: new OffscreenCanvas() で生成された単体の OffscreenCanvas にはこの処理は発生しません。

WebGPUからのtransferToImageBitmap:

transferToImageBitmap()GPUCanvasContext context を持つキャンバスで呼ばれ、キャンバスのbitmapから ImageBitmap が作成された後に、以下の コンテンツタイムラインステップを実行する:

  1. 描画バッファを置き換えるcontext に対して実行する。

注: これにより transferToImageBitmap() は画像内容を ImageBitmap へ「移動」する(必要に応じてアルファクリアも)、コピーは行われません。

21.4. GPUCanvasConfiguration

サポートされるコンテキストフォーマットは、集合である GPUTextureFormat の次の値です: «"bgra8unorm""rgba8unorm""rgba16float"»。 これらのフォーマットは、 GPUCanvasConfiguration.format として指定された場合、指定された GPUCanvasConfiguration.device に関わらず、サポートされなければなりません。

注:キャンバスの構成では、srgb フォーマット(例:"bgra8unorm-srgb")は使用できません。 代わりに非srgb相当("bgra8unorm")を使い、 srgbフォーマットをviewFormatsで指定し、 createView() によりsrgbフォーマットのビューを作成してください。

enum GPUCanvasAlphaMode {
    "opaque",
    "premultiplied",
};

enum GPUCanvasToneMappingMode {
    "standard",
    "extended",
};

dictionary GPUCanvasToneMapping {
  GPUCanvasToneMappingMode mode = "standard";
};

dictionary GPUCanvasConfiguration {
    required GPUDevice device;
    required GPUTextureFormat format;
    GPUTextureUsageFlags usage = 0x10;  // GPUTextureUsage.RENDER_ATTACHMENT
    sequence<GPUTextureFormat> viewFormats = [];
    PredefinedColorSpace colorSpace = "srgb";
    GPUCanvasToneMapping toneMapping = {};
    GPUCanvasAlphaMode alphaMode = "opaque";
};

GPUCanvasConfiguration には以下のメンバーがあります:

device, GPUDevice

GPUDevicegetCurrentTexture() で返されるテクスチャと互換性を持ちます。

format, GPUTextureFormat

getCurrentTexture() で返されるテクスチャのフォーマットです。 サポートされるコンテキストフォーマットのいずれかでなければなりません。

usage, GPUTextureUsageFlags, デフォルトは 0x10

getCurrentTexture() で返されるテクスチャのusageです。 RENDER_ATTACHMENT がデフォルトですが、usageを明示的に設定した場合は自動付与されません。RENDER_ATTACHMENTを使いたい場合は、自分でusageに追加してください。

viewFormats, 型 sequence<GPUTextureFormat>, デフォルトは []

getCurrentTexture() で返されるテクスチャからビューを作成するときに使えるフォーマットです。

colorSpace, PredefinedColorSpace, デフォルトは "srgb"

getCurrentTexture() に書き込まれた値を表示する色空間です。

toneMapping, GPUCanvasToneMapping, デフォルトは {}

トーンマッピングは getCurrentTexture() で返されるテクスチャの内容がどのように表示されるかを決定します。

注:
これは必須機能ですが、ユーザーエージェントがまだ未実装の場合、 実質的にデフォルトの GPUCanvasToneMapping のみをサポートすることになります。 その場合、このメンバーは GPUCanvasConfiguration の実装に含めないべきです。 これにより 機能検出getConfiguration() で可能になります。

これは、HDR機能を持つ実装(dynamic-rangehigh で公開される場合)では特に重要です。

もし実装がこのメンバーと high dynamic range を公開する場合、 キャンバスはHDR要素としてレンダリングすべきであり、HDRディスプレイのSDR範囲に値をクランプしてはなりません。

alphaMode, GPUCanvasAlphaMode, デフォルトは "opaque"

getCurrentTexture() で返されるテクスチャのアルファ値が、読み取り・表示・画像ソース利用時にどのように影響するかを決定します。

特定のGPUDevice 用にGPUCanvasContext を設定し、 このコンテキストの推奨フォーマットを使う例:
const canvas = document.createElement('canvas');
const context = canvas.getContext('webgpu');

context.configure({
    device: gpuDevice,
    format: navigator.gpu.getPreferredCanvasFormat(),
});
キャンバスと設定用のGPUTextureDescriptor( (HTMLCanvasElement または OffscreenCanvas) canvas, GPUCanvasConfiguration configuration) は、以下のメンバーを持つGPUTextureDescriptor です:

その他のメンバーはデフォルト値になります。

canvas.widthはHTMLCanvasElement.width または OffscreenCanvas.width を指します。 canvas.heightはHTMLCanvasElement.height または OffscreenCanvas.height を指します。

21.4.1. キャンバスの色空間

表示時、キャンバス内の色値は画面の色空間へ変換されます。

toneMapping は、画面の色空間における [0, 1] 範囲外の値の扱いを決定します。

21.4.2. キャンバスコンテキストのサイズ指定

全てのキャンバス設定は configure() で指定されますが、解像度(サイズ)はキャンバスの widthheight で指定されます。

注: WebGLや2dキャンバスと同様に、WebGPUキャンバスのサイズ変更は描画バッファの内容を失います。 WebGPUでは、これは描画バッファを置き換えることで行われます。

HTMLCanvasElement または OffscreenCanvas canvasGPUCanvasContext context を持ち、その width または height 属性が設定されたとき、 キャンバスサイズの更新を以下の コンテンツタイムライン の手順で行います:
  1. 描画バッファを置き換えるcontext に対して実行する。

  2. configurationcontext.[[configuration]] とする。

  3. configurationnull でない場合:

    1. context.[[textureDescriptor]]キャンバスと設定用のGPUTextureDescriptor(canvas, configuration) を設定する。

注: この処理により、GPUTextureDescriptor がデバイスの maxTextureDimension2D を超える場合があります。その場合、 getCurrentTexture() 内でバリデーションが失敗します。

注: このアルゴリズムは、値が変化しなくても canvaswidth または height 属性が設定されるたびに実行されます。

21.5. GPUCanvasToneMappingMode

このenumは、色値が画面にどのように表示されるかを指定します。

"standard"

画面の標準ダイナミックレンジ内の色値は変更されず、それ以外の色値は画面の標準ダイナミックレンジに射影されます。

注: この射影は、画面の色空間で色値を [0, 1] 範囲にクランプすることでよく実現されます。

例えば、値 (1.035, -0.175, -0.140)'srgb' キャンバスに書き込まれた場合:

これがsRGB画面に表示される場合、まずsRGBへ変換(キャンバスもsRGBなので変換なし)、次にディスプレイ空間へ射影されます。 成分ごとにクランプすると、sRGB値 (1.0, 0.0, 0.0) となります。

Display P3画面の場合、Display P3色空間に (0.948, 0.106, 0.01) へ変換され、クランプは不要です。

"extended"

画面の拡張ダイナミックレンジ内の色値は変更されず、それ以外の色値は画面の拡張ダイナミックレンジに射影されます。

注: この射影は、画面の色空間で色値を画面が表示可能な値の範囲にクランプすることでよく実現されます(1より大きい値も含む場合があります)。

例えば、値 (2.5, -0.15, -0.15)'srgb' キャンバスに書き込まれた場合:

sRGB画面で [0, 4] 範囲を表示できる場合、まずsRGBへ変換(キャンバスもsRGBなので変換なし)、次にディスプレイ空間へ射影されます。 成分ごとにクランプすると、sRGB値 (2.5, 0.0, 0.0) となります。

Display P3画面で [0, 2] 範囲を表示できる場合、Display P3色空間に (2.3, 0.545, 0.386) へ変換され、ディスプレイ空間へ射影されます。 成分ごとにクランプすると、Display P3値 (2.0, 0.545, 0.386) となります。

21.6. GPUCanvasAlphaMode

このenumは、キャンバス内容を読み出す際・ 画面表示や画像ソースとして利用 (drawImage, toDataURLなど)する際の解釈方法を選択します。

以下では、src はキャンバステクスチャ内の値、dst はキャンバスが合成される画像(例:HTMLページ描画や2Dキャンバス)です。

"opaque"

RGBを不透明として読み出し、アルファ値を無視します。 内容がすでに不透明でない場合は、"コンテキストの画像内容のコピーを取得する"でアルファチャンネルが 1.0 にクリアされます。

"premultiplied"

RGBAをプリマルチプライドとして読み出します:色値は自身のアルファ値で乗算されています。 100%赤・50%アルファなら [0.5, 0, 0, 0.5] となります。

キャンバステクスチャがガマット外のプリマルチプライドRGBA値を含む場合、読み出し時の挙動は次の通りです:

画像ソースとして利用

値は保持され、色空間変換に記載の通り扱われます。

画面表示

合成結果は未定義です。

注: 色空間変換で合成前にガマット内値になる場合でも、合成の中間フォーマットが規定されていないため未定義となります。

22. エラーとデバッグ

WebGPUの通常動作中、エラーは dispatch error を通じて発生します。

デバイスが 失われた 後は、可能な限りエラーは表示されなくなります。 この時点以降、実装はバリデーションやエラー追跡を行う必要はありません:

22.1. 重大なエラー

enum GPUDeviceLostReason {
    "unknown",
    "destroyed",
};

[Exposed=(Window, Worker), SecureContext]
interface GPUDeviceLostInfo {
    readonly attribute GPUDeviceLostReason reason;
    readonly attribute DOMString message;
};

partial interface GPUDevice {
    readonly attribute Promise<GPUDeviceLostInfo> lost;
};

GPUDevice には、次の属性が追加されています:

lost, 型は Promise<GPUDeviceLostInfo>, readonly

デバイス作成時に生成される promise を保持する スロット裏付け属性です。 デバイスの存続期間中は pending 状態となり、デバイスが失われた時に解決されます。

初期化時、新しい promise に設定されます。

22.2. GPUError

[Exposed=(Window, Worker), SecureContext]
interface GPUError {
    readonly attribute DOMString message;
};

GPUError は、 popErrorScope()uncapturederror イベントから発生する全てのエラーの基底インターフェースです。

エラーは、それぞれのアルゴリズムで明示的に条件とサブタイプを指定している操作に対してのみ生成されなければなりません。

失われたデバイスからはエラーは生成されません。 § 22 エラーとデバッグ を参照してください。

注: GPUError は、今後の現行標準のバージョンで新しいサブタイプが追加される可能性があります。 アプリケーションはこの可能性を考慮し、可能な場合はエラーの message のみを使用し、必要に応じて instanceof で特定してください。エラーをシリアライズする必要がある場合(例:JSONやデバッグレポートなど)は、error.constructor.name を使用してください。

GPUError には、以下の 不変プロパティ があります:

message, 型は DOMString、readonly

発生したエラーの情報を提供する、人間が読めるローカライズ可能なテキストメッセージです。

注: このメッセージは、通常アプリケーション開発者がアプリケーションをデバッグし、デバッグレポート用の情報を取得するために意図されています。エンドユーザーに表示するものではありません。

注: ユーザーエージェントは、"out-of-memory" などの 空きメモリ量やその他メモリ枯渇時の条件など、機械処理可能な詳細情報をこのメッセージに含めるべきではありません。

注: message は、 言語と方向情報のベストプラクティスに従うべきです。これは、将来的に文字列の言語・方向メタデータの報告に関する標準が登場した場合、それを活用することを含みます。

編集上の注記: この文書執筆時点では、レガシーAPIとの互換性・一貫性を保つ言語/方向推奨事項はありませんが、今後標準化され次第正式に採用してください。

[Exposed=(Window, Worker), SecureContext]
interface GPUValidationError
        : GPUError {
    constructor(DOMString message);
};

GPUValidationErrorGPUError のサブタイプであり、 操作が全てのバリデーション要件を満たさなかったことを示します。バリデーションエラーは常にアプリケーションエラーを示し、 同じ [[features]][[limits]] を使っていれば、全てのデバイスで同じように失敗することが期待されます。

バリデーションエラーを生成するには、 GPUDevice device に対して、以下の手順を実行します:

デバイスタイムライン の手順:

  1. error を、適切なエラーメッセージ付きの新しい GPUValidationError とする。

  2. dispatch errorerrordevice に送る。

[Exposed=(Window, Worker), SecureContext]
interface GPUOutOfMemoryError
        : GPUError {
    constructor(DOMString message);
};

GPUOutOfMemoryErrorGPUError のサブタイプであり、 要求された操作を完了するための十分な空きメモリがなかったことを示します。より低いメモリ要件(例えば、より小さいテクスチャ寸法)で再試行したり、他のリソースが使用するメモリを先に解放することで、操作が成功する場合もあります。

メモリ不足エラーを生成するには、GPUDevice device に対して、以下の手順を実行します:

デバイスタイムライン の手順:

  1. error を、適切なエラーメッセージ付きの新しい GPUOutOfMemoryError とする。

  2. dispatch errorerrordevice に送る。

[Exposed=(Window, Worker), SecureContext]
interface GPUInternalError
        : GPUError {
    constructor(DOMString message);
};

GPUInternalErrorGPUError のサブタイプであり、 操作が全てのバリデーション要件を満たしているにもかかわらず、システムや実装固有の理由で失敗したことを示します。 例えば、実装の上限値を超えた場合など、サポートされる上限で簡単に表現できないケースもあります。同じ操作でも、他のデバイスや状況下では成功する場合があります。

内部エラーを生成するには、GPUDevice device に対して、以下の手順を実行します:

デバイスタイムライン の手順:

  1. error を、適切なエラーメッセージ付きの新しい GPUInternalError とする。

  2. dispatch errorerrordevice に送る。

22.3. エラースコープ

GPUエラースコープは、 GPUErrorGPUエラースコープが現在のときに生成されたものを捕捉します。 エラースコープは、WebGPU呼び出しのセット内で発生したエラーを分離するために用いられ、主にデバッグや操作の耐障害性向上のために使われます。

GPUエラースコープは、以下のデバイスタイムラインプロパティを持ちます:

[[errors]], 型は list<GPUError>, 初期値 []

GPUエラースコープが現在のときに観測された GPUError を保持します。

[[filter]], 型は GPUErrorFilter

この GPUエラースコープ が観測する GPUError の種類を決定します。

enum GPUErrorFilter {
    "validation",
    "out-of-memory",
    "internal",
};

partial interface GPUDevice {
    undefined pushErrorScope(GPUErrorFilter filter);
    Promise<GPUError?> popErrorScope();
};

GPUErrorFilterpushErrorScope() 呼び出し時に捕捉するべきエラーの種類を定義します:

"validation"

このエラースコープは GPUValidationError を捕捉します。

"out-of-memory"

このエラースコープは GPUOutOfMemoryError を捕捉します。

"internal"

このエラースコープは GPUInternalError を捕捉します。

GPUDevice には、以下のデバイスタイムラインプロパティがあります:

[[errorScopeStack]], 型は stack<GPUエラースコープ>

GPUDevice に push された GPUエラースコープスタックです。

現在のエラースコープは、GPUError errorGPUDevice device について、デバイスタイムラインに以下の手順を発行することで決定されます:

デバイスタイムラインの手順:

  1. もし error が次のインスタンスであれば:

    GPUValidationError

    type を "validation" とする。

    GPUOutOfMemoryError

    type を "out-of-memory" とする。

    GPUInternalError

    type を "internal" とする。

  2. scopedevice.[[errorScopeStack]] の最後の アイテムとする。

  3. scopeundefined でない間:

    1. もし scope.[[filter]]type なら、scope を返す。

    2. scopedevice.[[errorScopeStack]] の前のアイテムに設定する。

  4. undefined を返す。

エラーをディスパッチするには、GPUError errorGPUDevice device 上で、以下のデバイスタイムラインの手順を実行します:
デバイスタイムラインの手順:

注: 失われたデバイスからはエラーは生成されません。 このアルゴリズムが device失われた 状態で呼び出された場合、アプリケーションには観測されません。 § 22 エラーとデバッグ を参照してください。

  1. scope現在のエラースコープerrordevice について取得する。

  2. scopeundefined でない場合:

    1. 追加 errorscope.[[errors]] に。

    2. returnする。

    それ以外の場合は コンテンツタイムラインに以下の手順を発行する:

コンテンツタイムラインの手順:
  1. ユーザーエージェントが選択した場合、GPUDevice用のグローバルタスクをキューする deviceに対して、以下の手順を実行する:

    1. GPUUncapturedErrorEvent を "uncapturederror" という名称で device 上で発火し、errorerror とする。

注: イベントをディスパッチした後、ユーザーエージェントは 開発者向けに未捕捉エラーを表示するべきです。例えば、ブラウザのデベロッパーツールの警告として表示しますが、イベントの defaultPrevented が true の場合は警告を抑制します。つまり preventDefault() を呼ぶことで警告が消えます。

注: ユーザーエージェントは GPUUncapturedErrorEvent の発生数を制限・調整して、過剰なエラーハンドリングやロギングがパフォーマンスに影響しないようにする場合があります。

pushErrorScope(filter)

新しい GPUエラースコープ[[errorScopeStack]] に push します(this用)。

呼び出し元: GPUDevice this.

引数:

GPUDevice.pushErrorScope(filter) メソッドの引数
パラメータ Nullable Optional 説明
filter GPUErrorFilter このエラースコープが観測するエラーのクラス

戻り値: undefined

コンテンツタイムラインの手順:

  1. 以降の手順を デバイスタイムラインthis)で発行する。

デバイスタイムラインの手順:
  1. scope を新しい GPUエラースコープとする。

  2. scope.[[filter]]filter に設定する。

  3. push scopethis.[[errorScopeStack]] に追加する。

popErrorScope()

GPUエラースコープ[[errorScopeStack]] からpopし、 このスコープで観測された いずれかGPUError を返します。エラーがない場合は null を返します。

promise解決の順序は保証されません。

呼び出し元: GPUDevice this.

戻り値: Promise<GPUError?>

コンテンツタイムラインの手順:

  1. 現在の コンテンツタイムラインcontentTimeline とする。

  2. promise新しいpromiseとする。

  3. thisデバイスタイムラインcheck steps を発行する。

  4. promise を返す。

デバイスタイムライン check steps:
  1. もし this失われた状態なら:

    1. contentTimeline で以下の手順を発行:

      コンテンツタイムラインの手順:
      1. resolveする promisenull で。

    2. returnする。

    注: 失われたデバイスからはエラーは生成されません。 § 22 エラーとデバッグ を参照してください。

  2. 以下の要件が満たされない場合:

    以下の手順を contentTimeline で発行し、returnする:

  3. scopepopthis.[[errorScopeStack]] からアイテムを取得する。

  4. errorscope.[[errors]] の中の いずれか のアイテムとし、なければ null とする。

    エラーE1とE2があり、E2がE1によって引き起こされた場合、E2は選ばれるべきではない

    注: 例えば、E1 が t = createTexture() から来ていて、 E2 が t.createView() から来ている場合(tinvalid だったため)、 E1 の方が優先されるべきです。なぜなら、開発者にとって何が問題だったのか理解しやすくなるからです。 どちらも GPUValidationError ですが、 唯一の違いは message フィールドのみであり、これは人間が読むためだけのものです。

  5. 現時点または将来の不特定のタイミングで、contentTimeline 上で以下の手順を実行する。

    注: popErrorScope() の呼び出しが任意の順序で、 スコープで検出された任意のエラーで解決できるようにすることで、この現行標準は、状態の観測が適切なタイミングで行われる限り、バリデーションが順不同で完了することを許容しています。 例えば、非状態入力のみに依存するシェーダーコンパイルを他のデバイスタイムラインの作業と並行してバックグラウンドスレッドで実行し、結果のエラーを後で報告することが可能になります。

コンテンツタイムライン の手順:
  1. 解決する promiseerror で。

GPUDevice の操作からバリデーションエラーを捕捉するためにエラースコープを使う例:
gpuDevice.pushErrorScope('validation');

let sampler = gpuDevice.createSampler({
    maxAnisotropy: 0, // 不正: maxAnisotropy は最低でも 1 でなければならない。
});

gpuDevice.popErrorScope().then((error) => {
    if (error) { 
        // サンプラー作成時にエラーが発生したので、破棄する。
        sampler = null;
        console.error(`サンプラー作成中にエラーが発生しました: ${error.message}`);
    }
});
注:
エラースコープは必要なだけ多くのコマンドを含むことができます。エラースコープがカバーするコマンド数は、一般的にアプリケーションがエラー発生時に取ろうとするアクションの種類に関連します。

例えば: テクスチャやバッファなど、単一リソースの作成のみを含むエラースコープは、メモリ不足などの失敗を検出するために使えます。その場合、アプリケーションは一部リソースを解放し、再度割り当てを試みることができます。

ただし、エラースコープはどのコマンドが失敗したかを特定できません。例えば、モデル読み込み中に実行される全てのコマンドを一つのエラースコープでラップした場合、そのスコープの失敗がメモリ不足によるものかどうかの粒度は十分ではありません。そのため、リソース解放による対応は通常有効な解決策とはなりません。より適切な対応として、アプリケーションが他のモデルにフォールバックするか、モデルが読み込めなかった旨の警告を出すことになります。メモリ不足への対応が必要な場合は、メモリを割り当てる操作のみをより小さな入れ子エラースコープでラップすることができます。

22.4. テレメトリ

GPUError が生成され、 それがどの GPUエラースコープ でも検出されなかった場合、 ユーザーエージェントは 任意で イベントを発火 し、 uncapturederror という名前で GPUDevice に対して GPUUncapturedErrorEvent を使うことができます。

注: uncapturederror イベントはテレメトリーや予期せぬエラーの報告用途を想定しています。すべての未捕捉エラーに対して必ずしも発火されるわけではありません(例えば、通知されるエラー数に上限がある場合があります)。したがって、アプリケーションの通常動作中に発生しうる既知のエラー処理には使うべきではありません。そのような場合は pushErrorScope() および popErrorScope() の利用を推奨します。

[Exposed=(Window, Worker), SecureContext]
interface GPUUncapturedErrorEvent : Event {
    constructor(
        DOMString type,
        GPUUncapturedErrorEventInit gpuUncapturedErrorEventInitDict
    );
    [SameObject] readonly attribute GPUError error;
};

dictionary GPUUncapturedErrorEventInit : EventInit {
    required GPUError error;
};

GPUUncapturedErrorEvent には次の属性があります:

error, 型は GPUError, readonly

非捕捉エラーを表すオブジェクトを保持する スロット裏付け属性。 この型は popErrorScope() で返されるエラーと同じです。

partial interface GPUDevice {
    attribute EventHandler onuncapturederror;
};

GPUDevice には、以下の コンテンツタイムライン属性 があります:

onuncapturederror, 型は EventHandler

uncapturederror イベントタイプ用の イベントハンドラーIDL属性

GPUDevice の 未捕捉エラーを監視する例:
gpuDevice.addEventListener('uncapturederror', (event) => {
    // イベントリスナーを追加すると、コンソールログが抑制される可能性があるため、エラーを再表示する。
    console.error('WebGPUのエラーが捕捉されませんでした:', event.error);

    myEngineDebugReport.uncapturedErrors.push({
        type: event.error.constructor.name,
        message: event.error.message,
    });
});

23. 詳細な操作

このセクションでは、各種GPU操作の詳細について説明します。

23.1. コンピューティング

コンピューティング操作は、GPUのプログラマブルハードウェアへ直接アクセスします。 コンピュートシェーダーにはシェーダーステージ入力や出力はなく、 ストレージバインディングに書き込むことで副作用が結果となります。 GPUBufferBindingLayoutGPUBufferBindingType "storage" または GPUStorageTextureBindingLayout としてバインドされます。 これらの操作は GPUComputePassEncoder で以下のようにエンコードされます:

主なコンピュートアルゴリズム:

compute(descriptor, dispatchCall)

引数:

  1. computeInvocationsリストとする。

  2. computeStagedescriptor.compute とする。

  3. workgroupSizecomputeStage.entryPointcomputeStage.constants を適用した結果で計算する。

  4. workgroupX[0, dispatchCall.workgroupCountX] の範囲で繰り返す:

    1. workgroupY[0, dispatchCall.workgroupCountY] の範囲で繰り返す:

      1. workgroupZ[0, dispatchCall.workgroupCountZ] の範囲で繰り返す:

        1. localX[0, workgroupSize.x] の範囲で繰り返す:

          1. localY[0, workgroupSize.y] の範囲で繰り返す:

            1. localZ[0, workgroupSize.y] の範囲で繰り返す:

              1. invocation{ computeStage, workgroupX, workgroupY, workgroupZ, localX, localY, localZ } とする

              2. 追加 invocationcomputeInvocations に。

  5. computeInvocations 内の各 invocation について、デバイスが選択した任意の順序(並列を含む)で:

    1. シェーダーの 組み込み値 を設定する:

      • num_workgroups 組み込み値を必要に応じて (
        dispatchCall.workgroupCountX,
        dispatchCall.workgroupCountY,
        dispatchCall.workgroupCountZ
        )

      • workgroup_id 組み込み値を必要に応じて (
        invocation.workgroupX,
        invocation.workgroupY,
        invocation.workgroupZ
        )

      • local_invocation_id 組み込み値を必要に応じて (
        invocation.localX,
        invocation.localY,
        invocation.localZ
        )

      • global_invocation_id 組み込み値を必要に応じて (
        invocation.workgroupX * workgroupSize.x + invocation.localX,
        invocation.workgroupY * workgroupSize.y + invocation.localY,
        invocation.workgroupZ * workgroupSize.z + invocation.localZ
        )
        .

      • local_invocation_index 組み込み値を必要に応じて invocation.localX + (invocation.localY * workgroupSize.x) + (invocation.localZ * workgroupSize.x * workgroupSize.y)

    2. invocation.computeStage で記述されたコンピュートシェーダーのエントリポイントを実行する。

注: シェーダー呼び出しの順序は保証されず、一般的にはデバイスの能力に応じて並列で実行されます。 開発者は、ある呼び出しやワークグループが他のものより先に完了するとは限らないことを前提としてください。 一部のデバイスでは一貫した順序で実行されるように見えることがありますが、この挙動は全デバイスで同じにはならないため、依存しないようにしてください。 呼び出し間で同期が必要な場合は、同期組み込み関数 を用いて実行を調整してください。

デバイスは、 失われる場合があります。 例えば、シェーダー実行が終了しない場合、 ユーザーエージェントが判断する合理的な時間内に終了しないときです。

23.2 レンダリング

レンダリングは、GPURenderPassEncoder 内で実行される一連のGPU操作によって行われ、 レンダーパスのアタッチメントで参照されるテクスチャデータが変更されます。 これらの操作は以下のメソッドでエンコードされます:

注: レンダリングはGPUの伝統的な用途であり、ハードウェアの複数の固定機能ブロックによってサポートされています。

主なレンダリングアルゴリズム:

render(pipeline, drawCall, state)

引数:

  1. descriptorpipeline.[[descriptor]] とする。

  2. インデックス解決§ 23.2.1 インデックス解決参照。

    vertexListresolve indices(drawCall, state) の結果とする。

  3. 頂点処理§ 23.2.2 頂点処理参照。

    process vertices(vertexList, drawCall, descriptor.vertex, state) を実行する。

  4. プリミティブ組み立て§ 23.2.3 プリミティブ組み立て参照。

    assemble primitives(vertexList, drawCall, descriptor.primitive) を実行する。

  5. プリミティブクリッピング§ 23.2.4 プリミティブクリッピング参照。

    この段階の結果を primitiveList とする。

  6. ラスタライズ§ 23.2.5 ラスタライズ参照。

    rasterize(primitiveList, state) の結果を rasterizationList とする。

  7. フラグメント処理§ 23.2.6 フラグメント処理参照。

    rasterPoint について process fragment(rasterPoint, descriptor, state) を実行し、fragments のリストを集める。

  8. ピクセル書き込み§ 23.2.7 出力マージ参照。

    fragments の各非null fragment について:

23.2.1. インデックス解決

レンダリングの最初の段階では、パイプラインは各インスタンスごとに処理する頂点のリストを構築します。

resolve indices(drawCall, state)

引数:

戻り値: 整数インデックスのリスト。

  1. vertexIndexList を空のインデックスリストとする。

  2. drawCall がインデックス付きドロー呼び出しの場合:

    1. vertexIndexListdrawCall.indexCount 個の整数で初期化する。

    2. 0 .. drawCall.indexCount(非包含)の範囲で i を繰り返す:

      1. relativeVertexIndexfetch index(i + drawCall.firstIndex, state.[[index_buffer]]) とする。

      2. relativeVertexIndex が特別な値 "out of bounds" の場合、空リストを返す。

        注: 実装はこの状況が発生した際、特に検出が容易な場合(非インダイレクトのインデックス付きドロー呼び出しなど)、警告を表示することができます。

      3. vertexIndexListdrawCall.baseVertex + relativeVertexIndex を追加する。

    それ以外の場合:

    1. vertexIndexListdrawCall.vertexCount 個の整数で初期化する。

    2. vertexIndexList の項目 idrawCall.firstVertex + i の値に設定する。

  3. vertexIndexList を返す。

注: インダイレクトドロー呼び出しの場合、indexCountvertexCount やその他 drawCall のプロパティはドローコマンド自身ではなくインダイレクトバッファから読み取られます。

fetch index(i, buffer, offset, format)

引数:

戻り値: 符号なし整数または "out of bounds"

  1. indexSizestate.[[index_format]] で定義する:

    "uint16"

    2

    "uint32"

    4

  2. もし state.[[index_buffer_offset]] + |i + 1| × indexSize > state.[[index_buffer_size]] なら、特別な値 "out of bounds" を返す。

  3. state.[[index_buffer]] のデータを、 オフセット state.[[index_buffer_offset]] + i × indexSize から indexSize バイト分、符号なし整数として解釈し返す。

23.2.2. 頂点処理

頂点処理ステージは、レンダーパイプラインのプログラマブルステージであり、 頂点属性データを処理し、 § 23.2.4 プリミティブクリッピングのクリップ空間位置や、 § 23.2.6 フラグメント処理用のその他データを生成します。

process vertices(vertexIndexList, drawCall, desc, state)

引数:

各頂点vertexIndexvertexIndexList内の全インスタンスrawInstanceIndexごとに独立して処理されます。 rawInstanceIndexは0からdrawCall.instanceCount - 1までの範囲です。この処理は並列で実行され、副作用( GPUBufferBindingType "storage"バインディングへの書き込みなど)は任意の順序で発生します。

  1. instanceIndexrawInstanceIndex + drawCall.firstInstance とする。

  2. 各非nullvertexBufferLayoutについて、desc.buffersのリストで:

    1. i をこのリスト内のバッファレイアウトのインデックスとする。

    2. vertexBuffervertexBufferOffsetvertexBufferBindingSizestate.[[vertex_buffers]]のスロットiのバッファ・オフセット・サイズとする。

    3. vertexBufferLayout.stepModeに応じて、vertexElementIndexを決定する:

      "vertex"

      vertexIndex

      "instance"

      instanceIndex

    4. drawCallOutOfBoundsfalse にする。

    5. attributeDescについて、vertexBufferLayout.attributesで:

      1. attributeOffsetvertexBufferOffset + vertexElementIndex * vertexBufferLayout.arrayStride + attributeDesc.offset とする。

      2. もし attributeOffset + byteSize(attributeDesc.format) > vertexBufferOffset + vertexBufferBindingSize なら:

        1. drawCallOutOfBoundstrue にする。

        2. 実装依存(implementation-definedで、 vertexIndexListを空にして返し、ドロー呼び出しをキャンセルする。

          注: これにより、実装がドロー呼び出し前にインデックスバッファの範囲外値を検出できるようになり、無効なメモリ参照の挙動の代わりとなります。

    6. attributeDescについて、vertexBufferLayout.attributesで:

      1. もし drawCallOutOfBoundstrue なら:

        1. WGSLの無効なメモリ参照挙動に従い、vertexBufferから属性dataをロードする。

          注: 無効なメモリ参照は、たとえドロー呼び出し全体が範囲外でも、属性が範囲内なら「正しい」値をロードできるなどの挙動を許容します。

        それ以外の場合:

        1. attributeOffsetvertexBufferOffset + vertexElementIndex * vertexBufferLayout.arrayStride + attributeDesc.offset とする。

        2. vertexBufferから、attributeOffsetオフセットでattributeDesc.formatフォーマットの属性dataをロードする。コンポーネントはバッファメモリからx, y, z, wの順でロードされる。

      2. dataチャネルフォーマット規則に従い、シェーダー可視フォーマットに変換する。

        属性型"snorm8x2"でバイト値[0x70, 0xD0]の場合、WGSLではvec2<f32>(0.88, -0.38)に変換されます。
      3. シェーダー型に合わせてdataサイズを調整する:

        • 両方がスカラー、または両方が同じ次元数のベクトルなら調整不要。

        • dataがベクトルでシェーダー型がスカラーなら、最初のコンポーネントのみ抽出。

        • 両方がベクトルで、dataが高次元なら余分な成分を切り捨て。

          属性型"float32x3"で値vec3<f32>(1.0, 2.0, 3.0)は、2成分ベクトルが期待される場合、シェーダーにはvec2<f32>(1.0, 2.0)として渡されます。
        • シェーダー型が高次元ベクトル、またはdataがスカラーの場合、不足成分はvec4<*>(0, 0, 0, 1)で埋める。

          属性型"sint32"で値5は、4成分ベクトルが期待される場合、vec4<i32>(5, 0, 0, 1)としてシェーダーに渡されます。
      4. dataを、頂点シェーダー入力ロケーションattributeDesc.shaderLocationにバインドする。

  3. GPUBindGroupグループについて、state.[[bind_groups]]indexで:

    1. バインドグループ内の各GPUBindingResourceリソースについて:

      1. このリソースの対応するGPUBindGroupLayoutEntryentryとする。

      2. もしentry.visibilityVERTEXを含む場合:

  4. シェーダー組み込み値を設定する:

    • vertex_index組み込み値(あれば)をvertexIndexに設定。

    • instance_index組み込み値(あれば)をinstanceIndexに設定。

  5. descで記述された頂点シェーダーのエントリポイントを呼び出す。

    注: ターゲットプラットフォームは頂点シェーダー呼び出しの結果をキャッシュします。 同じvertexIndexが複数回現れても、複数回呼び出される保証はありません。逆に、1つのvertexIndexが1回だけ処理される保証もありません。

    デバイスは、 失われる場合があります。 例えば、シェーダー実行が終了しないとユーザーエージェントが判断した合理的な時間内に処理が終わらない場合です。

23.2.3. プリミティブ生成

プリミティブはGPUの固定機能ステージによって生成されます。

assemble primitives(vertexIndexList, drawCall, desc)

引数:

各インスタンスについて、プリミティブはシェーダーで処理された頂点(vertexIndexList)から生成されます。

  1. まず、プリミティブトポロジーがストリップ(つまり desc.stripIndexFormat がundefinedでない)かつdrawCallがインデックス付きの場合は、 vertexIndexListdesc.stripIndexFormatの最大値をセパレータとして分割します。

    例:[1, 2, 65535, 4, 5, 6](型"uint16")は [1, 2][4, 5, 6]に分割されます。

  2. 各サブリストvlについて、プリミティブ生成はdesc.topologyで決定されます:

    "line-list"

    ラインプリミティブは(vl.0, vl.1)、(vl.2, vl.3)、(vl.4, vl.5)のように2頂点ずつ構成されます。

    "line-strip"

    ラインプリミティブは(vl.0, vl.1)、(vl.1, vl.2)、(vl.2, vl.3)のように1頂点ずつ進めて構成されます。

    "triangle-list"

    トライアングルプリミティブは(vl.0, vl.1, vl.2)、(vl.3, vl.4, vl.5)、(vl.6, vl.7, vl.8)のように3頂点ずつ構成されます。

    "triangle-strip"

    トライアングルプリミティブは(vl.0, vl.1, vl.2)、(vl.2, vl.1, vl.3)、(vl.2, vl.3, vl.4)、(vl.4, vl.3, vl.5)のように1頂点ずつ進めて構成されます。

    不完全なプリミティブは破棄されます。

23.2.4. プリミティブクリッピング

頂点シェーダーは組み込みposition(型vec4<f32>)を生成する必要があり、 これは頂点のクリップ空間座標における クリップ位置を示します。

プリミティブはクリップボリュームにクリッピングされます。これは、プリミティブ内の任意のクリップ位置pについて、以下の不等式で定義されます:

"clip-distances"機能が有効な場合、 このクリップボリュームは、 頂点ステージの出力でclip_distancesを宣言することで、 ユーザー定義の半空間でさらに制限できます。clip_distances配列の各値はプリミティブ内で線形補間され、 補間値が0未満の部分がクリッピングされます。

もしdescriptor.primitive.unclippedDepthtrueの場合、 デプスクリッピングは適用されません:z次元でクリップボリュームが制限されません。

プリミティブのすべての辺がクリップボリューム内に完全に含まれる場合、 このステージは何も変更しません。 プリミティブの辺がクリップボリューム境界と交差する場合、 交差する辺はクリップボリューム境界上に新しい辺で再接続されます。 三角形プリミティブの場合(descriptor.primitive.topology"triangle-list" または "triangle-strip")、 この再接続により内部的に新しい頂点がポリゴン内に導入されることがあります。

プリミティブがクリップボリューム境界の辺と交差する場合、 クリップされたポリゴンはこの境界辺上の点を含める必要があります。

頂点シェーダーが"perspective"補間で修飾された他の浮動小数点値(スカラーやベクトル)を出力する場合もクリッピングされます。 クリップボリューム内の頂点の出力値はクリッピングの影響を受けませんが、 クリッピングで生成された頂点に割り当てられる出力値はクリッピングされます。

頂点ab間の辺がクリッピングされ、頂点cが生成されたとき、 tを辺の比率とすると、 c.p = t × a.p + (1 − t) × b.p (ここでx.pは頂点xクリップ位置)。

各頂点出力値"v"について、対応するフラグメント入力がある場合、 a.v、b.vがそれぞれ頂点abの出力です。 クリップされたシェーダー出力c.vは補間修飾子に基づき生成されます:

flat

flat補間は影響を受けず、プロボーキング頂点(シェーダーで宣言された補間サンプリングモードで決定)に基づきます。出力値はプリミティブ全体で同じで、プロボーキング頂点の頂点出力と一致します。

linear

補間比率はクリップ位置の遠近座標に応じて調整され、画面空間で線形になるように補間されます。

perspective

値はクリップ空間で線形に補間され、遠近補正された値となります。

プリミティブクリッピングの結果は、クリップボリューム内に含まれる新しいプリミティブ集合です。

23.2.5. ラスタライズ

ラスタライズは、生成されたプリミティブを フレームバッファ(現行のGPURenderPassEncoderのレンダーアタッチメント集合)に対応する 2次元レンダリング領域へマッピングするハードウェア処理ステージです。 このレンダリング領域は均等なピクセルグリッドに分割されています。

フレームバッファの座標系はレンダーターゲットの左上隅から始まり、 各単位は正確に1ピクセルに対応します。詳細は§ 3.3 座標系を参照してください。

ラスタライズでは、プリミティブが影響するピクセル集合を決定します。マルチサンプリングの場合、 各ピクセルはさらに descriptor.multisample.count 個のサンプルに分割されます。 標準サンプルパターンは以下の通りです。 サンプル位置は、ピクセルの左上隅を基準としたフレームバッファ座標で表され、ピクセル範囲は(0, 0)から(1, 1)です:

multisample.count サンプル位置
1 サンプル0: (0.5, 0.5)
4 サンプル0: (0.375, 0.125)
サンプル1: (0.875, 0.375)
サンプル2: (0.125, 0.625)
サンプル3: (0.625, 0.875)

ラスタライズを行う際、実装は与えられた multisample.count標準サンプルパターンを使用しなければなりません。

FragmentDestinationは以下を含みます:

position

フレームバッファ座標を使った2次元ピクセル位置

sampleIndex

§ 23.2.10 サンプルごとのシェーディングが有効な場合は整数、それ以外はnull

また、正規化デバイス座標(NDC)の概念も使用します。 この座標系では、ビューポートの境界はXとYが−1から1、Zが0から1の範囲です。

ラスタライズは、以下のデータを持つRasterizationPointのリストを生成します:

destination

FragmentDestinationを参照

coverageMask

マルチサンプルカバレッジマスク(§ 23.2.11 サンプルマスキング参照)

frontFacing

プリミティブの表面側の点ならtrue

perspectiveDivisor

プリミティブ全体で補間された1.0 ÷ Wを参照

depth

ビューポート座標での深度、すなわち[[viewport]]minDepthmaxDepthの間

primitiveVertices

プリミティブを構成する頂点出力のリスト

barycentricCoordinates

§ 23.2.5.3 バリセントリック座標参照

rasterize(primitiveList, state)

引数:

戻り値: RasterizationPointのリスト。

primitiveList内の各プリミティブは独立して処理されますが、プリミティブの順序は後続の深度・ステンシル操作やピクセル書き込みに影響します。

  1. まず、クリップ済み頂点をNDC(正規化デバイス座標)へ変換します。 出力位置pについて、NDC位置と遠近除算は次の通り:

    ndc(p) = ベクトル(p.x ÷ p.w, p.y ÷ p.w, p.z ÷ p.w)

    divisor(p) = 1.0 ÷ p.w

  2. vpstate.[[viewport]]とする。 NDC位置nビューポート座標にマッピング:

    • レンダーターゲットのオフセットとサイズからフレームバッファ座標を計算:

      framebufferCoords(n) = ベクトル(vp.x + 0.5 × (n.x + 1) × vp.width, vp.y + 0.5 × (−n.y + 1) × vp.height)

    • [0,1]をビューポート深度範囲に線形マッピングして深度を計算:

      depth(n) = vp.minDepth + n.z × ( vp.maxDepth - vp.minDepth )

  3. rasterizationPointsを各点の属性(divisor(p)framebufferCoords(n)depth(n)など)を、 プリミティブ上の位置に応じて補間して得る。同じ補間方法は§ 23.2.4 プリミティブクリッピングと同様。 属性がユーザー定義(組み込み出力値でない)場合、 補間タイプはWGSLの@interpolate属性で指定されます。

  4. 具体的なラスタライズアルゴリズムは primitive.topologyに依存します:

    "point-list"

    点が§ 23.2.4 プリミティブクリッピングで除外されていなければ、§ 23.2.5.1 点ラスタライズへ。

    "line-list" または "line-strip"

    ラインは§ 23.2.4 プリミティブクリッピングで切断され、§ 23.2.5.2 ラインラスタライズへ。

    "triangle-list" または "triangle-strip"

    § 23.2.4 プリミティブクリッピングで生成されたポリゴンは§ 23.2.5.4 ポリゴンラスタライズへ。

  5. rasterizationPointsから、rprp.destination.positionstate.[[scissorRect]]外の点をすべて除去する。

  6. rasterizationPointsを返す。

23.2.5.1. 点ラスタライズ

点のフレームバッファ座標を含むピクセル内で、1つのFragmentDestinationが選択されます。

カバレッジマスクはマルチサンプリングモードによって異なります:

サンプル頻度

coverageMask = 1 ≪ sampleIndex

ピクセル頻度マルチサンプリング

coverageMask = 1 ≪ descriptor.multisample.count − 1

マルチサンプリングなし

coverageMask = 1

23.2.5.2. ラインラスタライズ

ラインラスタライズに使用される正確なアルゴリズムは定義されておらず、実装ごとに異なる場合があります。例えば、ラインセグメントの周囲に1px幅の矩形を§ 23.2.5.4 ポリゴンラスタライズで描画したり、Bresenhamのラインアルゴリズムを使ってFragmentDestinationを選択することもあります。

注: ラインラスタライズアルゴリズムの詳細については、基本ラインセグメントラスタライズBresenhamラインセグメントラスタライズVulkan 1.3現行標準)を参照してください。

23.2.5.3. バリセントリック座標

バリセントリック座標は、フレームバッファ空間内の凸多角形(頂点数n、頂点vi)の中の点pについて定義される、n個の数biのリストです。 各biは0から1の範囲で、頂点viへの近さを表します。 これらの和は常に一定です:

∑ (bi) = 1

これらの座標により、多角形内(またはその境界上)の任意の点pは次のように一意に指定されます:

p = ∑ (bi × pi)

頂点が3つの多角形、すなわち三角形の場合、 任意の点pのバリセントリック座標は次のように計算できます:

Apolygon = A(v1, v2, v3) b1 = A(p, b2, b3) ÷ Apolygon b2 = A(b1, p, b3) ÷ Apolygon b3 = A(b1, b2, p) ÷ Apolygon

ここで、A(点のリスト)は指定された頂点集合による多角形の面積です。

3つ以上の頂点を持つ多角形の場合、厳密なアルゴリズムは実装依存となります。 一つの実装例としては、多角形を三角形分割し、点が含まれる三角形に基づいてバリセントリック座標を計算する方法があります。

23.2.5.4. ポリゴンラスタライズ

ポリゴンが投影方向に向いていれば表面側、 そうでなければ裏面側です。

rasterize polygon()

引数:

戻り値: RasterizationPointのリスト。

  1. rasterizationPointsを空リストとする。

  2. クリップ済み頂点番号i(1から)について、ラスタライズポリゴンのn頂点それぞれのフレームバッファ座標をv(i)とする。

    注: このセクションでは「三角形」でなく「多角形」という用語を使っています。 これは§ 23.2.4 プリミティブクリッピングで追加頂点が導入される場合があるためです。 アプリケーションからは観測できません。

  3. ポリゴンが表面側かどうか判定する。これはフレームバッファ座標でのarea(面積)の符号によります:

    area = 0.5 × ((v1.x × vn.y − vn.x × v1.y) + ∑ (vi+1.x × vi.y − vi.x × vi+1.y))

    areaの符号はprimitive.frontFaceで解釈します:

    "ccw"

    area > 0 なら表面側、それ以外は裏面側

    "cw"

    area < 0 なら表面側、それ以外は裏面側

  4. primitive.cullModeに基づきカリング:

    "none"

    すべてのポリゴンが通過します。

    "front"

    表面側のポリゴンは除去され、以降のレンダーパイプライン処理は行いません。

    "back"

    裏面側のポリゴンは除去されます。

  5. ポリゴン内のフレームバッファ空間にあるフラグメント集合を決定します。 これらはフラグメントごとの処理対象となる位置です。この操作は「点サンプリング」と呼ばれます。 ロジックはdescriptor.multisampleに基づきます:

    無効

    フラグメントはピクセル中心に関連付けられます。つまり、座標Cでfract(C) = ベクトル2(0.5, 0.5)となるフレームバッファ空間内でポリゴンに含まれる点全てが対象です。 ピクセル中心がポリゴンのエッジ上にある場合、含めるかどうかは未定義です。

    注: この点はラスタライザの精度に依存します。

    有効

    各ピクセルはdescriptor.multisample.count個の位置に関連付けられ、これらの位置は実装依存です。 位置は順序付きで、フレームバッファの各ピクセルで同一のリストとなります。各位置はマルチサンプルフレームバッファ内の1つのフラグメントに対応します。

    ラスタライザは、各ピクセル内でヒットした位置のマスクを構築し、フラグメントシェーダーの「sample-mask」組み込み値として提供します。

  6. 生成された各FragmentDestination型フラグメントについて:

    1. rpを新しいRasterizationPointオブジェクトとする

    2. そのフラグメントの§ 23.2.5.3 バリセントリック座標リストbを計算し、rp.barycentricCoordinatesに設定する。

    3. diviの深度値とする。

    4. rp.depthを∑(bi × di)に設定する

    5. rprasterizationPointsに追加する。

  7. rasterizationPointsを返す。

23.2.6. フラグメント処理

フラグメント処理ステージは、レンダーパイプラインのプログラマブルステージであり、 レンダーターゲットに書き込むフラグメントデータ(多くの場合は色)を計算します。

このステージは、各RasterizationPointに対して、 Fragmentを生成します:

process fragment(rp, descriptor, state)

引数:

戻り値: Fragmentまたはnull

  1. fragmentDescdescriptor.fragmentとする。

  2. depthStencilDescdescriptor.depthStencilとする。

  3. fragment を新しいFragmentオブジェクトとする。

  4. fragment.destinationrp.destinationに設定。

  5. fragment.frontFacingrp.frontFacingに設定。

  6. fragment.coverageMaskrp.coverageMaskに設定。

  7. fragment.depthrp.depthに設定。

  8. シェーダーでfrag_depth 組み込み値が生成されない場合:

    1. fragment.depthPassedcompare fragment(fragment.destination, fragment.depth, "depth", state.[[depthStencilAttachment]], depthStencilDesc?.depthCompare) とする。

  9. stencilState を、rp.frontFacingtrueであればdepthStencilDesc?.stencilFront、 そうでなければdepthStencilDesc?.stencilBackとする。

  10. fragment.stencilPassedcompare fragment(fragment.destination, state.[[stencilReference]], "stencil", state.[[depthStencilAttachment]], stencilState?.compare) に設定。

  11. fragmentDescnullでなければ:

    1. もしfragment.depthPassedfalseで、シェーダーエントリポイントがfrag_depth組み込み値を生成せず、ストレージバインディングへの書き込みもない場合、以下の手順は省略可能。

    2. シェーダー入力組み込み値を設定する。エントリポイントの各非複合引数(組み込み値で注釈されたもの)は、注釈に基づき値を設定:

      position

      vec4<f32>(rp.destination.position, rp.depth, rp.perspectiveDivisor)

      front_facing

      rp.frontFacing

      sample_index

      rp.destination.sampleIndex

      sample_mask

      rp.coverageMask

    3. フラグメントステージのユーザー指定シェーダーステージ入力ごとに:

      1. value を、rp.barycentricCoordinatesrp.primitiveVerticesおよび入力の補間修飾子に基づき補間して算出。

      2. 対応するフラグメントシェーダーlocation入力値にvalueを設定。

    4. fragmentDescで記述されたフラグメントシェーダーのエントリポイントを呼び出す。

      デバイスは、 失われる場合があります。 例えば、シェーダー実行が終了しない場合、 ユーザーエージェントが判断する合理的な時間内に処理が終わらない場合です。

    5. フラグメントがdiscardを発行した場合、nullを返す。

    6. fragment.colorsを、シェーダーからのユーザー指定シェーダーステージ出力値に設定。

    7. シェーダー出力組み込み値を取得:

      1. もしfrag_depth 組み込み値がシェーダーからvalueとして生成された場合:

        1. vpstate.[[viewport]]とする。

        2. fragment.depth を clamp(value, vp.minDepth, vp.maxDepth)に設定。

        3. fragment.depthPassedcompare fragment( fragment.destination, fragment.depth, "depth", state.[[depthStencilAttachment]], depthStencilDesc?.depthCompare)に設定。

    8. もしsample_mask 組み込み値がシェーダーからvalueとして生成された場合:

      1. fragment.coverageMaskfragment.coverageMaskvalue に設定。

    それ以外の場合は§ 23.2.8 色出力なしモードとなり、fragment.colorsは空です。

  12. fragmentを返す。

compare fragment(destination, value, aspect, attachment, compareFunc)

引数:

戻り値: 比較が合格すればtrue、そうでなければfalse

フラグメントの処理は並列で行われますが、副作用( GPUBufferBindingType "storage"バインディングへの書き込みなど)は任意の順序で発生し得ます。

23.2.7. 出力マージ

出力マージは、レンダーパイプラインの固定機能ステージであり、 フラグメントの色、深度、ステンシルデータをレンダーパスのアタッチメントに書き込むために出力します。

process depth stencil(fragment, pipeline, state)

引数:

  1. depthStencilDescpipeline.[[descriptor]].depthStencilとする。

  2. もし pipeline.[[writesDepth]]true かつ fragment.depthPassedtrue なら:

    1. state.[[depthStencilAttachment]]のdepthアスペクト値をfragment.destinationfragment.depthに設定する。

  3. もし pipeline.[[writesStencil]] が true なら:

    1. stencilStatedepthStencilDesc.stencilFrontfragment.frontFacingtrueなら)またはdepthStencilDesc.stencilBack(それ以外)に設定。

    2. もし fragment.stencilPassedfalse なら:

      • stencilOpstencilState.failOpに設定。

      それ以外で fragment.depthPassedfalse なら:

      それ以外:

      • stencilOpstencilState.passOpに設定。

    3. state.[[depthStencilAttachment]]のstencilアスペクト値を fragment.destinationで、stencilOpで指定された操作を行い更新する。

このステージへの深度入力(存在すれば)は、現在の[[viewport]]の深度範囲にクランプされます(フラグメントシェーダーステージがfrag_depth組み込み値を書き込むかどうかに関係なく)。

process color attachments(fragment, pipeline, state)

引数:

  1. もし fragment.depthPassedfalse または fragment.stencilPassedfalse なら、return。

  2. targetspipeline.[[descriptor]].fragment.targetsとする。

  3. state.[[colorAttachments]]の各attachmentについて:

    1. colorfragment.colorsからattachmentに対応する値に設定。

    2. targetDesctargetsattachmentに対応するエントリに設定。

    3. もし targetDesc.blend提供されていれば:

      1. colorBlendtargetDesc.blend.colorに設定。

      2. alphaBlendtargetDesc.blend.alphaに設定。

      3. colorのRGB成分を、colorBlend.operationcolorBlend.srcFactorcolorBlend.dstFactorを使って計算した値に設定。

      4. colorのアルファ成分を、alphaBlend.operationalphaBlend.srcFactoralphaBlend.dstFactorを使って計算した値に設定。

    4. fragment.destinationattachmentの値をcolorに設定。

23.2.8. 色出力なし

色出力なしモードでは、パイプラインはカラーアタッチメント出力を生成しません。

パイプラインはラスタライズを行い、 頂点位置出力に基づく深度値を生成します。深度テストとステンシル操作は引き続き利用可能です。

23.2.9. アルファtoカバレッジ

アルファtoカバレッジモードでは、 フラグメントシェーダーの出力値(@location(0))のalpha成分に基づいて、 MSAAサンプルの追加アルファtoカバレッジマスクが生成されます。

追加マスクの生成アルゴリズムはプラットフォーム依存であり、ピクセル毎に異なる場合があります。 保証されるのは以下の通りです:

23.2.10. サンプルごとのシェーディング

マルチサンプリングされたレンダーアタッチメントへの描画時、フラグメントシェーダーはピクセルごとまたはサンプルごとに実行できます。 フラグメントシェーダーは、sample_index 組み込み値または sample 補間サンプリングが使われ、シェーダー出力で利用される場合、 必ずサンプルごとに実行しなければなりません。それ以外の場合、フラグメントシェーダーはピクセルごとに実行してもよく、 その結果は最終サンプルマスクに含まれる各サンプルにブロードキャストされます。

サンプルごとのシェーディングを使う場合、サンプルNの色出力は、sample_index == Nで現在のピクセルについてフラグメントシェーダー実行で生成されます。

23.2.11. サンプルマスキング

ピクセルの最終サンプルマスクは、 ラスタライズマスク & mask & シェーダー出力マスク として計算されます。

マスクの下位countビットのみが考慮されます。

最終サンプルマスクの位置Nにある最下位ビットが"0"の場合、 フラグメントシェーダーの全アタッチメントに対応するサンプルNのサンプルカラー出力は破棄されます。 また、深度ステンシルアタッチメントの該当サンプルに対しては、深度テストやステンシル演算も実行されません。

ラスタライズマスクはラスタライズステージで生成され、 ラスタライズされたポリゴンの形状に基づきます。形状に含まれるサンプルは、マスク内の該当ビットが1になります。

シェーダー出力マスクは、 フラグメントシェーダーの"sample_mask" 組み込み値の出力値を取ります。 この組み込み値がフラグメントシェーダーから出力されず、 alphaToCoverageEnabledが有効な場合、 シェーダー出力マスクアルファtoカバレッジマスクとなります。 それ以外はデフォルトで0xFFFFFFFFとなります。

24. 型定義

typedef [EnforceRange] unsigned long GPUBufferDynamicOffset;
typedef [EnforceRange] unsigned long GPUStencilValue;
typedef [EnforceRange] unsigned long GPUSampleMask;
typedef [EnforceRange] long GPUDepthBias;

typedef [EnforceRange] unsigned long long GPUSize64;
typedef [EnforceRange] unsigned long GPUIntegerCoordinate;
typedef [EnforceRange] unsigned long GPUIndex32;
typedef [EnforceRange] unsigned long GPUSize32;
typedef [EnforceRange] long GPUSignedOffset32;

typedef unsigned long long GPUSize64Out;
typedef unsigned long GPUIntegerCoordinateOut;
typedef unsigned long GPUSize32Out;

typedef unsigned long GPUFlagsConstant;

24.1. 色とベクトル

dictionary GPUColorDict {
    required double r;
    required double g;
    required double b;
    required double a;
};
typedef (sequence<double> or GPUColorDict) GPUColor;

注: double型は32ビット符号付き/符号なし整数および単精度浮動小数点数を正確に保持できる十分なサイズです。

r, 型は double

赤チャンネルの値。

g, 型は double

緑チャンネルの値。

b, 型は double

青チャンネルの値。

a, 型は double

アルファチャンネルの値。

与えられたGPUColorcolorについて、その型に応じて次の構文を使います:
validate GPUColor shape(color)

引数:

戻り値: undefined

内容タイムライン手順:

  1. colorがシーケンスで、color.size ≠ 4なら、TypeErrorを投げる。

dictionary GPUOrigin2DDict {
    GPUIntegerCoordinate x = 0;
    GPUIntegerCoordinate y = 0;
};
typedef (sequence<GPUIntegerCoordinate> or GPUOrigin2DDict) GPUOrigin2D;
ある GPUOrigin2Dorigin について、型に応じて以下の構文:
GPUOrigin2D 形状の検証(origin)

引数:

戻り値: undefined

Content timeline 手順:

  1. origin がシーケンス型で、origin.size > 2 の場合、 TypeError を投げる。

dictionary GPUOrigin3DDict {
    GPUIntegerCoordinate x = 0;
    GPUIntegerCoordinate y = 0;
    GPUIntegerCoordinate z = 0;
};
typedef (sequence<GPUIntegerCoordinate> or GPUOrigin3DDict) GPUOrigin3D;
ある GPUOrigin3Dorigin について、型に応じて以下の構文:
GPUOrigin3D 形状の検証(origin)

引数:

戻り値: undefined

Content timeline 手順:

  1. origin がシーケンス型で、origin.size > 3 の場合、 TypeError を投げる。

dictionary GPUExtent3DDict {
    required GPUIntegerCoordinate width;
    GPUIntegerCoordinate height = 1;
    GPUIntegerCoordinate depthOrArrayLayers = 1;
};
typedef (sequence<GPUIntegerCoordinate> or GPUExtent3DDict) GPUExtent3D;
width, GPUIntegerCoordinate

範囲の幅。

height, GPUIntegerCoordinate、デフォルト値 1

範囲の高さ。

depthOrArrayLayers, GPUIntegerCoordinate、デフォルト値 1

範囲の深さ、または含まれる配列レイヤー数。 GPUTextureGPUTextureDimension "3d" の場合はテクスチャの深さ。GPUTextureGPUTextureDimension "2d" の場合はテクスチャの配列レイヤー数。

ある GPUExtent3Dextent について、型に応じて以下の構文:
GPUExtent3D 形状の検証(extent)

引数:

戻り値: undefined

Content timeline 手順:

  1. 以下のいずれかの場合、TypeError を投げる:

25. 機能索引

25.1. "core-features-and-limits"

すべてのCore WebGPU機能および制限が利用可能になります。

注: これは現行すべてのアダプターで利用可能であり、要求しなくてもすべてのデバイスで自動的に有効化されます。

25.2. "depth-clip-control"

デプスクリッピングを無効化できるようになります。

この機能は以下のオプションAPIサーフェスを追加します:

25.3. "depth32float-stencil8"

"depth32float-stencil8"フォーマットのテクスチャを明示的に作成可能になります。

この機能は以下のオプションAPIサーフェスを追加します:

25.4. "texture-compression-bc"

BC圧縮フォーマット("S3TC"、"RGTC"、"BPTC"フォーマットを含む)のテクスチャを明示的に作成可能になります。2Dテクスチャのみ対応。

注: "texture-compression-bc"対応アダプターは必ずしも"texture-compression-bc-sliced-3d"対応ではありません。"texture-compression-bc-sliced-3d"を使うには、"texture-compression-bc"を明示的に有効化する必要があります。この機能のみでBCフォーマットは有効化されません。

この機能は以下のオプションAPIサーフェスを追加します:

25.5. "texture-compression-bc-sliced-3d"

BC圧縮フォーマットのテクスチャに対して3d次元が利用可能になります。

注: "texture-compression-bc"対応アダプターは必ずしも"texture-compression-bc-sliced-3d"対応ではありません。"texture-compression-bc-sliced-3d"を使うには、"texture-compression-bc"を明示的に有効化する必要があります。この機能のみでBCフォーマットは有効化されません。

この機能はオプションAPIサーフェスを追加しません。

25.6. "texture-compression-etc2"

ETC2圧縮フォーマットのテクスチャを明示的に作成可能になります。2Dテクスチャのみ対応。

この機能は以下のオプションAPIサーフェスを追加します:

25.7. "texture-compression-astc"

ASTC圧縮フォーマットのテクスチャを明示的に作成可能になります。2Dテクスチャのみ対応。

この機能は以下のオプションAPIサーフェスを追加します:

25.8. "texture-compression-astc-sliced-3d"

ASTC圧縮フォーマットのテクスチャに対して3d次元が利用可能になります。

注: "texture-compression-astc"対応アダプターは必ずしも"texture-compression-astc-sliced-3d"対応ではありません。"texture-compression-astc-sliced-3d"を使うには、"texture-compression-astc"を明示的に有効化する必要があります。この機能のみでASTCフォーマットは有効化されません。

この機能はオプションAPIサーフェスを追加しません。

25.9. "timestamp-query"

GPUコマンドバッファからタイムスタンプをクエリする機能を追加します。§ 20.4 タイムスタンプクエリ参照。

この機能は以下のオプションAPIサーフェスを追加します:

25.10. "indirect-first-instance"

インダイレクトドローのパラメータおよびインダイレクトドローインデックス付きパラメータで非ゼロのfirstInstance値を使用可能にします。

この機能はオプションAPIサーフェスを追加しません。

25.11. "shader-f16"

WGSLで半精度浮動小数点型f16が利用可能になります。

この機能は以下のオプションAPIサーフェスを追加します:

25.12. "rg11b10ufloat-renderable"

RENDER_ATTACHMENT 用途が、フォーマット"rg11b10ufloat"のテクスチャに許可されます。また、このフォーマットのテクスチャに対してブレンド、マルチサンプリング、リゾルブも可能となります。

暗黙的に、"rg11b10ufloat"copyExternalImageToTexture()の宛先フォーマットとして許可します。

この機能はオプションAPIサーフェスを追加しません。

注:この機能は、"texture-formats-tier1"により自動的に有効化されます。そして"texture-formats-tier2"によっても自動的に有効化されます。

25.13. "bgra8unorm-storage"

STORAGE_BINDING用途として"bgra8unorm"フォーマットのテクスチャが利用できます。

この機能はオプションAPIサーフェスを追加しません。

25.14. "float32-filterable"

"r32float""rg32float""rgba32float" フォーマットのテクスチャをフィルタ可能にします。

25.15. "float32-blendable"

"r32float""rg32float""rgba32float" フォーマットのテクスチャをブレンド可能にします。

25.16. "clip-distances"

WGSLでclip_distancesが利用可能になります。

この機能は以下のオプションAPIサーフェスを追加します:

25.17. "dual-source-blending"

WGSLでblend_srcの使用を可能にし、かつピクセルシェーダーの出力 (@blend_src(0)@blend_src(1))の両方を、単一のカラーアタッチメント location 0 でのブレンディング操作の入力として同時に使用できるようにします。

この機能は以下のオプションAPIサーフェスを追加します:

25.18. "subgroups"

WGSLでサブグループおよびクアッド演算の利用が可能になります。

この機能はオプションAPIサーフェスを追加しませんが、アダプターでこの機能が利用可能な場合、GPUAdapterInfoの 以下のエントリが実値を返します:

25.19. "texture-formats-tier1"

デバイス作成時に"texture-formats-tier1" を有効にすると、 "rg11b10ufloat-renderable" も有効になります。 以下の項目はそれに加えて適用されます。

下記の新しいGPUTextureFormatについて、 RENDER_ATTACHMENTブレンド可能multisampling機能、 STORAGE_BINDING機能( "read-only"および "write-only" GPUStorageTextureAccessが利用可能になります:

下記GPUTextureFormatについて、 RENDER_ATTACHMENTブレンド可能multisamplingresolve機能も利用可能です:

下記GPUTextureFormatについて、 "read-only"または "write-only" GPUStorageTextureAccessが利用可能です:

copyExternalImageToTexture() で次の新しい宛先フォーマットが暗黙的に許可されます:

注:この機能は"texture-formats-tier2"によって自動的に有効化されます。

25.20. "texture-formats-tier2"

デバイス作成時に"texture-formats-tier2" を有効にすると、 "texture-formats-tier1" も有効になります。 以下の項目はそれに加えて適用されます。

以下のGPUTextureFormat について、"read-write" GPUStorageTextureAccess が許可されます:

25.21. "primitive-index"

WGSLでprimitive_indexの利用が可能になります。

この機能は以下のオプションAPIサーフェスを追加します:

25.22. "texture-component-swizzle"

GPUTextureViewTEXTURE_BINDING として使用する際に、テクスチャの赤/緑/青/アルファチャンネルから色成分を並べ替えたり置き換えたりできるようにします。

§ 26.1.2.1 Depth/Stencil テクスチャの読み取りとサンプリング の以前は実装依存だった動作も定義します。

この機能は以下の オプション API サーフェス を追加します:

26. 付録

26.1. テクスチャフォーマットの機能

26.1.1. プレーンカラー形式

すべてのサポートされるプレーンカラー形式は、次の用途をサポートします: COPY_SRCCOPY_DSTTEXTURE_BINDING、 および次元"3d"

RENDER_ATTACHMENTSTORAGE_BINDINGの列は、 GPUTextureUsage.RENDER_ATTACHMENTおよび GPUTextureUsage.STORAGE_BINDING用途のサポートを示します。

レンダーターゲットのピクセルバイトコストレンダーターゲットのコンポーネントアラインメントは、 maxColorAttachmentBytesPerSample制限のバリデーションに使用されます。

注: これらの形式それぞれのテクセルブロックのメモリコストは、 テクセルブロックのコピーのフットプリントと同じです。

フォーマット 必須機能 GPUTextureSampleType RENDER_ATTACHMENT ブレンド可能 マルチサンプリング 解決(resolve) STORAGE_BINDING テクセルブロックコピーのフットプリント (バイト) レンダーターゲットピクセルバイトコスト (バイト)
"write-only" "read-only" "read-write"
8ビット/コンポーネント(1バイトレンダーターゲットコンポーネントアラインメント
r8unorm "float",
"unfilterable-float"
"texture-formats-tier1" が有効 "texture-formats-tier2" が有効 1
r8snorm "float",
"unfilterable-float"
"texture-formats-tier1" が有効 1
r8uint "uint" "texture-formats-tier1" が有効 "texture-formats-tier2" が有効 1
r8sint "sint" "texture-formats-tier1" が有効 "texture-formats-tier2" が有効 1
rg8unorm "float",
"unfilterable-float"
"texture-formats-tier1" が有効 2
rg8snorm "float",
"unfilterable-float"
"texture-formats-tier1" が有効 2
rg8uint "uint" "texture-formats-tier1" が有効 2
rg8sint "sint" "texture-formats-tier1" が有効 2
rgba8unorm "float",
"unfilterable-float"
"texture-formats-tier2" が有効 4 8
rgba8unorm-srgb "float",
"unfilterable-float"
4 8
rgba8snorm "float",
"unfilterable-float"
"texture-formats-tier1" が有効 4
rgba8uint "uint" "texture-formats-tier2" が有効 4
bgra8unorm "float",
"unfilterable-float"
"bgra8unorm-storage" が有効な場合 4 8
bgra8unorm-srgb "float",
"unfilterable-float"
4 8
16ビット/コンポーネント(2バイト レンダーターゲットコンポーネントアラインメント
r16unorm "texture-formats-tier1" "unfilterable-float" 2
r16snorm "texture-formats-tier1" "unfilterable-float" 2
r16uint "uint" "texture-formats-tier1" が有効な場合 "texture-formats-tier2" が有効な場合 2
r16sint "sint" "texture-formats-tier1" が有効な場合 "texture-formats-tier2" が有効な場合 2
r16float "float",
"unfilterable-float"
"texture-formats-tier1" が有効な場合 "texture-formats-tier2" が有効な場合 2
rg16unorm "texture-formats-tier1" "unfilterable-float" 4
rg16snorm "texture-formats-tier1" "unfilterable-float" 4
rg16uint "uint" "texture-formats-tier1" が有効な場合 4
rg16sint "sint" "texture-formats-tier1" が有効な場合 4
rg16float "float",
"unfilterable-float"
"texture-formats-tier1" が有効な場合 4
rgba16unorm "texture-formats-tier1" "unfilterable-float" 8
rgba16snorm "texture-formats-tier1" "unfilterable-float" 8
rgba16uint "uint" "texture-formats-tier2" が有効な場合 8
rgba16sint "sint" "texture-formats-tier2" が有効な場合 8
rgba16float "float",
"unfilterable-float"
"texture-formats-tier2" が有効な場合 8
32ビット/コンポーネント(4バイト レンダーターゲットコンポーネントアラインメント
r32uint "uint" 4
r32sint "sint" 4
r32float

"float" "float32-filterable" が有効な場合

"unfilterable-float"

"float32-blendable" が有効な場合 4
rg32uint "uint" 8
rg32sint "sint" 8
rg32float

"float" "float32-filterable" が有効な場合

"unfilterable-float"

"float32-blendable" が有効な場合 8
rgba32uint "uint" "texture-formats-tier2" が有効な場合 16
rgba32sint "sint" "texture-formats-tier2" が有効な場合 16
rgba32float

"float" "float32-filterable" が有効な場合

"unfilterable-float"

"float32-blendable" が有効な場合 "texture-formats-tier2" が有効な場合 16
混合コンポーネント幅、32ビット/テクセル(4バイト レンダーターゲットコンポーネントアラインメント
rgb10a2uint "uint" "texture-formats-tier1" が有効な場合 4 8
rgb10a2unorm "float",
"unfilterable-float"
"texture-formats-tier1" が有効な場合 4 8
rg11b10ufloat "float",
"unfilterable-float"
"rg11b10ufloat-renderable" が有効な場合 "texture-formats-tier1" が有効な場合 4 8

26.1.2. 深度・ステンシル形式

深度またはステンシル形式は、深度および/またはステンシルのアスペクトを持つ任意の形式です。 複合深度ステンシル形式は、深度またはステンシル形式のうち、深度とステンシルの両方のアスペクトを持つものです。

すべての深度またはステンシル形式は、COPY_SRCCOPY_DSTTEXTURE_BINDINGRENDER_ATTACHMENT 用途をサポートします。 これらの形式はすべてマルチサンプリングに対応しています。 ただし、特定のコピー操作はソースおよびデスティネーションの形式を制限し、これらの形式はいずれも"3d"次元のテクスチャをサポートしません。

深度テクスチャは"filtering" サンプラーでは使用できませんが、フィルタリングを使用していても"comparison" サンプラーでは常に使用できます。

形式
注:
テクセルブロックのメモリコスト(バイト数)
アスペクト GPUTextureSampleType 有効なテクセルコピー有効なテクセルコピーテクセルブロックのコピーのフットプリント(バイト数) アスペクト専用形式
stencil8 1 − 4 ステンシル "uint" 1 stencil8
depth16unorm 2 深度 "depth", "unfilterable-float" 2 depth16unorm
depth24plus 4 深度 "depth", "unfilterable-float" depth24plus
depth24plus-stencil8 4 − 8 深度 "depth", "unfilterable-float" depth24plus
ステンシル "uint" 1 stencil8
depth32float 4 深度 "depth", "unfilterable-float" 4 depth32float
depth32float-stencil8 5 − 8 深度 "depth", "unfilterable-float" 4 depth32float
ステンシル "uint" 1 stencil8

24ビット深度は、0.0から1.0の範囲を持つ24ビット符号なし正規化深度形式を指します。公開されていれば"depth24unorm"と表記されます。

26.1.2.1. 深度・ステンシルテクスチャの読み取りとサンプリング

可能で、depthアスペクトの GPUTextureViewtexture_depth_* バインディング、またはその他の非depth 2D/キューブテクスチャタイプのバインディングに結び付けることができます。

stencilアスペクトの GPUTextureView は通常のテクスチャバインディングタイプへバインドしなければなりません。 sampleTypeGPUBindGroupLayout 内で "uint" でなければなりません。

"texture-component-swizzle" 機能が有効な場合、テクスチャのdepthまたはstencilアスペクトの読み出しやサンプリングは、テクスチャが (V, 0, 0, 1) の値を持つかのように振る舞います(Vは実際のdepthまたはstencil値)。有効でない場合は値が (V, X, X, X) となり、各Xは実装依存の未定義値です。

実際の互換性問題を減らすため、実装は 可能な限り(V, 0, 0, 1) を提供するべきです。たとえ "texture-component-swizzle" 機能が有効でなくてもです。

depthアスペクトのバインディングでは、未定義値は texture_depth_* タイプのバインディングからは見えません。

例えばdepthテクスチャをtexture_2d<f32>型でtexにバインドしたとき:

注: depthと同様のより制約されたstencilサンプラー型を追加しない限り、実装がdepth/stencil読みに関するドライバ差異を効率よく吸収するのは困難です。 これはWebGLで移植性の問題にはならなかったため、WebGPUでも問題にならないと考えられます。 実際には、ハードウェアによっては(V, V, V, V)または(V, 0, 0, 1)(Vはdepthまたはstencil値)が返されます。

26.1.2.2. 深度・ステンシルテクスチャのコピー

depth32float形式("depth32float""depth32float-stencil8")の深度アスペクトは範囲が限定されています。 そのため、この形式へのコピーは同じ形式の他のテクスチャからのみ有効です。

depth24plus形式("depth24plus""depth24plus-stencil8")の深度アスペクトは不透明な表現(24ビット深度または"depth32float"として実装)を持ちます。 そのため、depthアスペクトのテクセルコピーはこれらの形式では許可されません。

注:
禁止されたコピー操作を模倣することは可能です:

26.1.3. パック形式

すべてのパックテクスチャ形式はCOPY_SRCCOPY_DSTTEXTURE_BINDING 用途をサポートします。 これらの形式はすべてフィルタ可能です。 どの形式もレンダー可能でもなく、マルチサンプリングにも対応しません。

圧縮形式は、ブロックサイズが1×1を超える任意の形式を指します。

注: これらの形式それぞれのテクセルブロックのメモリコストは、 テクセルブロックのコピーのフットプリントと同じです。

フォーマット テクセルブロックのコピーのフットプリント(バイト数) GPUTextureSampleType テクセルブロック/高さ "3d" 機能
rgb9e5ufloat 4 "float",
"unfilterable-float"
1 × 1
bc1-rgba-unorm 8 "float",
"unfilterable-float"
4 × 4 もし"texture-compression-bc-sliced-3d" が有効なら texture-compression-bc
bc1-rgba-unorm-srgb
bc2-rgba-unorm 16
bc2-rgba-unorm-srgb
bc3-rgba-unorm 16
bc3-rgba-unorm-srgb
bc4-r-unorm 8
bc4-r-snorm
bc5-rg-unorm 16
bc5-rg-snorm
bc6h-rgb-ufloat 16
bc6h-rgb-float
bc7-rgba-unorm 16
bc7-rgba-unorm-srgb
etc2-rgb8unorm 8 "float",
"unfilterable-float"
4 × 4 texture-compression-etc2
etc2-rgb8unorm-srgb
etc2-rgb8a1unorm 8
etc2-rgb8a1unorm-srgb
etc2-rgba8unorm 16
etc2-rgba8unorm-srgb
eac-r11unorm 8
eac-r11snorm
eac-rg11unorm 16
eac-rg11snorm
astc-4x4-unorm 16 "float",
"unfilterable-float"
4 × 4 もし"texture-compression-astc-sliced-3d" が有効なら texture-compression-astc
astc-4x4-unorm-srgb
astc-5x4-unorm 16 5 × 4
astc-5x4-unorm-srgb
astc-5x5-unorm 16 5 × 5
astc-5x5-unorm-srgb
astc-6x5-unorm 16 6 × 5
astc-6x5-unorm-srgb
astc-6x6-unorm 16 6 × 6
astc-6x6-unorm-srgb
astc-8x5-unorm 16 8 × 5
astc-8x5-unorm-srgb
astc-8x6-unorm 16 8 × 6
astc-8x6-unorm-srgb
astc-8x8-unorm 16 8 × 8
astc-8x8-unorm-srgb
astc-10x5-unorm 16 10 × 5
astc-10x5-unorm-srgb
astc-10x6-unorm 16 10 × 6
astc-10x6-unorm-srgb
astc-10x8-unorm 16 10 × 8
astc-10x8-unorm-srgb
astc-10x10-unorm 16 10 × 10
astc-10x10-unorm-srgb
astc-12x10-unorm 16 12 × 10
astc-12x10-unorm-srgb
astc-12x12-unorm 16 12 × 12
astc-12x12-unorm-srgb

適合性

文書の慣例

適合性の要件は、記述的な断定とRFC 2119の用語の組み合わせで表現されます。 主要な語句である “MUST”, “MUST NOT”, “REQUIRED”, “SHALL”, “SHALL NOT”, “SHOULD”, “SHOULD NOT”, “RECOMMENDED”, “MAY”, “OPTIONAL” は、この文書の規範的な部分において RFC 2119で説明されている通りに解釈されます。 ただし、可読性のため、これらの語句は本仕様書ではすべて大文字で表記されているわけではありません。

本仕様書のすべての本文は規範的です。 ただし、明示的に非規範的、例、注記であると示された節を除きます。[RFC2119]

本仕様書内の例は、「例えば」という語句で始まるか、 またはclass="example"で規範的な本文から区別されます。 以下のように表示されます:

これは情報提供用の例です。

情報提供用注記は「Note」で始まり、 class="note"で規範的な本文から区別されます。 以下のように表示されます:

Note, これは情報提供用の注記です。

適合アルゴリズム

アルゴリズムの一部として命令形で記述された要件(例えば "先頭の空白文字を取り除く" や "偽を返してこれらの手順を中止する" など)は、 アルゴリズムの導入に用いられた主要な語句 ("must", "should", "may"など)の意味で解釈されます。

アルゴリズムや特定の手順として表現された適合性の要件は、 結果が同等である限り、どのような方法で実装しても構いません。 特に、本仕様書で定義されたアルゴリズムは 理解しやすさを重視しており、 性能を重視しているわけではありません。 実装者は最適化を推奨します。

索引

この仕様で定義される用語

参照によって定義される用語

参考文献

規範参考文献

[DOM]
Anne van Kesteren. DOM Standard. 現行標準. URL: https://dom.spec.whatwg.org/
[ECMAScript]
ECMAScript Language Specification. URL: https://tc39.es/ecma262/multipage/
[HR-TIME-3]
Yoav Weiss. High Resolution Time. 2024年11月7日. WD. URL: https://www.w3.org/TR/hr-time-3/
[HTML]
Anne van Kesteren他. HTML Standard. 現行標準. URL: https://html.spec.whatwg.org/multipage/
[I18N-GLOSSARY]
Richard Ishida; Addison Phillips. Internationalization Glossary. 2024年10月17日. NOTE. URL: https://www.w3.org/TR/i18n-glossary/
[INFRA]
Anne van Kesteren; Domenic Denicola. Infra Standard. 現行標準. URL: https://infra.spec.whatwg.org/
[RFC2119]
S. Bradner. Key words for use in RFCs to Indicate Requirement Levels. 1997年3月. Best Current Practice. URL: https://datatracker.ietf.org/doc/html/rfc2119
[WEBCODECS]
Paul Adenot; Eugene Zemtsov. WebCodecs. 2025年7月8日. WD. URL: https://www.w3.org/TR/webcodecs/
[WEBGL-1]
Dean Jackson; Jeff Gilbert. WebGL Specification, Version 1.0. 2017年8月9日. URL: https://www.khronos.org/registry/webgl/specs/latest/1.0/
[WEBIDL]
Edgar Chen; Timothy Gu. Web IDL Standard. 現行標準. URL: https://webidl.spec.whatwg.org/
[WEBXR]
Brandon Jones; Manish Goregaokar; Rik Cabanier. WebXR デバイスAPI。2025年10月1日。CRD。URL: https://www.w3.org/TR/webxr/
[WGSL]
Alan Baker; Mehmet Oguz Derin; David Neto. WebGPU シェーディング言語。2025年10月20日。CRD。URL: https://www.w3.org/TR/WGSL/

参考情報

[CSS-COLOR-4]
Chris Lilley; Tab Atkins Jr.; Lea Verou. CSS Color Module Level 4。2025年4月24日。CRD。URL: https://www.w3.org/TR/css-color-4/
[MEDIAQUERIES-5]
Dean Jackson 他。Media Queries Level 5。2021年12月18日。WD。URL: https://www.w3.org/TR/mediaqueries-5/
[SERVICE-WORKERS]
Yoshisato Yanagisawa; Monica CHINTALA。Service Workers。2025年3月6日。CRD。URL: https://www.w3.org/TR/service-workers/
[VULKAN]
The Khronos Vulkan Working Group。Vulkan 1.3。URL: https://registry.khronos.org/vulkan/specs/1.3/html/vkspec.html

IDLインデックス

interface mixin GPUObjectBase {
    attribute USVString label;
};

dictionary GPUObjectDescriptorBase {
    USVString label = "";
};

[Exposed=(Window, Worker), SecureContext]
interface GPUSupportedLimits {
    readonly attribute unsigned long maxTextureDimension1D;
    readonly attribute unsigned long maxTextureDimension2D;
    readonly attribute unsigned long maxTextureDimension3D;
    readonly attribute unsigned long maxTextureArrayLayers;
    readonly attribute unsigned long maxBindGroups;
    readonly attribute unsigned long maxBindGroupsPlusVertexBuffers;
    readonly attribute unsigned long maxBindingsPerBindGroup;
    readonly attribute unsigned long maxDynamicUniformBuffersPerPipelineLayout;
    readonly attribute unsigned long maxDynamicStorageBuffersPerPipelineLayout;
    readonly attribute unsigned long maxSampledTexturesPerShaderStage;
    readonly attribute unsigned long maxSamplersPerShaderStage;
    readonly attribute unsigned long maxStorageBuffersPerShaderStage;
    readonly attribute unsigned long maxStorageTexturesPerShaderStage;
    readonly attribute unsigned long maxUniformBuffersPerShaderStage;
    readonly attribute unsigned long long maxUniformBufferBindingSize;
    readonly attribute unsigned long long maxStorageBufferBindingSize;
    readonly attribute unsigned long minUniformBufferOffsetAlignment;
    readonly attribute unsigned long minStorageBufferOffsetAlignment;
    readonly attribute unsigned long maxVertexBuffers;
    readonly attribute unsigned long long maxBufferSize;
    readonly attribute unsigned long maxVertexAttributes;
    readonly attribute unsigned long maxVertexBufferArrayStride;
    readonly attribute unsigned long maxInterStageShaderVariables;
    readonly attribute unsigned long maxColorAttachments;
    readonly attribute unsigned long maxColorAttachmentBytesPerSample;
    readonly attribute unsigned long maxComputeWorkgroupStorageSize;
    readonly attribute unsigned long maxComputeInvocationsPerWorkgroup;
    readonly attribute unsigned long maxComputeWorkgroupSizeX;
    readonly attribute unsigned long maxComputeWorkgroupSizeY;
    readonly attribute unsigned long maxComputeWorkgroupSizeZ;
    readonly attribute unsigned long maxComputeWorkgroupsPerDimension;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUSupportedFeatures {
    readonly setlike<DOMString>;
};

[Exposed=(Window, Worker), SecureContext]
interface WGSLLanguageFeatures {
    readonly setlike<DOMString>;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUAdapterInfo {
    readonly attribute DOMString vendor;
    readonly attribute DOMString architecture;
    readonly attribute DOMString device;
    readonly attribute DOMString description;
    readonly attribute unsigned long subgroupMinSize;
    readonly attribute unsigned long subgroupMaxSize;
    readonly attribute boolean isFallbackAdapter;
};

interface mixin NavigatorGPU {
    [SameObject, SecureContext] readonly attribute GPU gpu;
};
Navigator includes NavigatorGPU;
WorkerNavigator includes NavigatorGPU;

[Exposed=(Window, Worker), SecureContext]
interface GPU {
    Promise<GPUAdapter?> requestAdapter(optional GPURequestAdapterOptions options = {});
    GPUTextureFormat getPreferredCanvasFormat();
    [SameObject] readonly attribute WGSLLanguageFeatures wgslLanguageFeatures;
};

dictionary GPURequestAdapterOptions {
    DOMString featureLevel = "core";
    GPUPowerPreference powerPreference;
    boolean forceFallbackAdapter = false;
    boolean xrCompatible = false;
};

enum GPUPowerPreference {
    "low-power",
    "high-performance",
};

[Exposed=(Window, Worker), SecureContext]
interface GPUAdapter {
    [SameObject] readonly attribute GPUSupportedFeatures features;
    [SameObject] readonly attribute GPUSupportedLimits limits;
    [SameObject] readonly attribute GPUAdapterInfo info;

    Promise<GPUDevice> requestDevice(optional GPUDeviceDescriptor descriptor = {});
};

dictionary GPUDeviceDescriptor
         : GPUObjectDescriptorBase {
    sequence<GPUFeatureName> requiredFeatures = [];
    record<DOMString, (GPUSize64 or undefined)> requiredLimits = {};
    GPUQueueDescriptor defaultQueue = {};
};

enum GPUFeatureName {
    "core-features-and-limits",
    "depth-clip-control",
    "depth32float-stencil8",
    "texture-compression-bc",
    "texture-compression-bc-sliced-3d",
    "texture-compression-etc2",
    "texture-compression-astc",
    "texture-compression-astc-sliced-3d",
    "timestamp-query",
    "indirect-first-instance",
    "shader-f16",
    "rg11b10ufloat-renderable",
    "bgra8unorm-storage",
    "float32-filterable",
    "float32-blendable",
    "clip-distances",
    "dual-source-blending",
    "subgroups",
    "texture-formats-tier1",
    "texture-formats-tier2",
    "primitive-index",
    "texture-component-swizzle",
};

[Exposed=(Window, Worker), SecureContext]
interface GPUDevice : EventTarget {
    [SameObject] readonly attribute GPUSupportedFeatures features;
    [SameObject] readonly attribute GPUSupportedLimits limits;
    [SameObject] readonly attribute GPUAdapterInfo adapterInfo;

    [SameObject] readonly attribute GPUQueue queue;

    undefined destroy();

    GPUBuffer createBuffer(GPUBufferDescriptor descriptor);
    GPUTexture createTexture(GPUTextureDescriptor descriptor);
    GPUSampler createSampler(optional GPUSamplerDescriptor descriptor = {});
    GPUExternalTexture importExternalTexture(GPUExternalTextureDescriptor descriptor);

    GPUBindGroupLayout createBindGroupLayout(GPUBindGroupLayoutDescriptor descriptor);
    GPUPipelineLayout createPipelineLayout(GPUPipelineLayoutDescriptor descriptor);
    GPUBindGroup createBindGroup(GPUBindGroupDescriptor descriptor);

    GPUShaderModule createShaderModule(GPUShaderModuleDescriptor descriptor);
    GPUComputePipeline createComputePipeline(GPUComputePipelineDescriptor descriptor);
    GPURenderPipeline createRenderPipeline(GPURenderPipelineDescriptor descriptor);
    Promise<GPUComputePipeline> createComputePipelineAsync(GPUComputePipelineDescriptor descriptor);
    Promise<GPURenderPipeline> createRenderPipelineAsync(GPURenderPipelineDescriptor descriptor);

    GPUCommandEncoder createCommandEncoder(optional GPUCommandEncoderDescriptor descriptor = {});
    GPURenderBundleEncoder createRenderBundleEncoder(GPURenderBundleEncoderDescriptor descriptor);

    GPUQuerySet createQuerySet(GPUQuerySetDescriptor descriptor);
};
GPUDevice includes GPUObjectBase;

[Exposed=(Window, Worker), SecureContext]
interface GPUBuffer {
    readonly attribute GPUSize64Out size;
    readonly attribute GPUFlagsConstant usage;

    readonly attribute GPUBufferMapState mapState;

    Promise<undefined> mapAsync(GPUMapModeFlags mode, optional GPUSize64 offset = 0, optional GPUSize64 size);
    ArrayBuffer getMappedRange(optional GPUSize64 offset = 0, optional GPUSize64 size);
    undefined unmap();

    undefined destroy();
};
GPUBuffer includes GPUObjectBase;

enum GPUBufferMapState {
    "unmapped",
    "pending",
    "mapped",
};

dictionary GPUBufferDescriptor
         : GPUObjectDescriptorBase {
    required GPUSize64 size;
    required GPUBufferUsageFlags usage;
    boolean mappedAtCreation = false;
};

typedef [EnforceRange] unsigned long GPUBufferUsageFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUBufferUsage {
    const GPUFlagsConstant MAP_READ      = 0x0001;
    const GPUFlagsConstant MAP_WRITE     = 0x0002;
    const GPUFlagsConstant COPY_SRC      = 0x0004;
    const GPUFlagsConstant COPY_DST      = 0x0008;
    const GPUFlagsConstant INDEX         = 0x0010;
    const GPUFlagsConstant VERTEX        = 0x0020;
    const GPUFlagsConstant UNIFORM       = 0x0040;
    const GPUFlagsConstant STORAGE       = 0x0080;
    const GPUFlagsConstant INDIRECT      = 0x0100;
    const GPUFlagsConstant QUERY_RESOLVE = 0x0200;
};

typedef [EnforceRange] unsigned long GPUMapModeFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUMapMode {
    const GPUFlagsConstant READ  = 0x0001;
    const GPUFlagsConstant WRITE = 0x0002;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUTexture {
    GPUTextureView createView(optional GPUTextureViewDescriptor descriptor = {});

    undefined destroy();

    readonly attribute GPUIntegerCoordinateOut width;
    readonly attribute GPUIntegerCoordinateOut height;
    readonly attribute GPUIntegerCoordinateOut depthOrArrayLayers;
    readonly attribute GPUIntegerCoordinateOut mipLevelCount;
    readonly attribute GPUSize32Out sampleCount;
    readonly attribute GPUTextureDimension dimension;
    readonly attribute GPUTextureFormat format;
    readonly attribute GPUFlagsConstant usage;
};
GPUTexture includes GPUObjectBase;

dictionary GPUTextureDescriptor
         : GPUObjectDescriptorBase {
    required GPUExtent3D size;
    GPUIntegerCoordinate mipLevelCount = 1;
    GPUSize32 sampleCount = 1;
    GPUTextureDimension dimension = "2d";
    required GPUTextureFormat format;
    required GPUTextureUsageFlags usage;
    sequence<GPUTextureFormat> viewFormats = [];
};

enum GPUTextureDimension {
    "1d",
    "2d",
    "3d",
};

typedef [EnforceRange] unsigned long GPUTextureUsageFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUTextureUsage {
    const GPUFlagsConstant COPY_SRC          = 0x01;
    const GPUFlagsConstant COPY_DST          = 0x02;
    const GPUFlagsConstant TEXTURE_BINDING   = 0x04;
    const GPUFlagsConstant STORAGE_BINDING   = 0x08;
    const GPUFlagsConstant RENDER_ATTACHMENT = 0x10;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUTextureView {
};
GPUTextureView includes GPUObjectBase;

dictionary GPUTextureViewDescriptor
         : GPUObjectDescriptorBase {
    GPUTextureFormat format;
    GPUTextureViewDimension dimension;
    GPUTextureUsageFlags usage = 0;
    GPUTextureAspect aspect = "all";
    GPUIntegerCoordinate baseMipLevel = 0;
    GPUIntegerCoordinate mipLevelCount;
    GPUIntegerCoordinate baseArrayLayer = 0;
    GPUIntegerCoordinate arrayLayerCount;

    // Requires "texture-component-swizzle" feature.
    DOMString swizzle = "rgba";
};

enum GPUTextureViewDimension {
    "1d",
    "2d",
    "2d-array",
    "cube",
    "cube-array",
    "3d",
};

enum GPUTextureAspect {
    "all",
    "stencil-only",
    "depth-only",
};

enum GPUTextureFormat {
    // 8-bit formats
    "r8unorm",
    "r8snorm",
    "r8uint",
    "r8sint",

    // 16-bit formats
    "r16unorm",
    "r16snorm",
    "r16uint",
    "r16sint",
    "r16float",
    "rg8unorm",
    "rg8snorm",
    "rg8uint",
    "rg8sint",

    // 32-bit formats
    "r32uint",
    "r32sint",
    "r32float",
    "rg16unorm",
    "rg16snorm",
    "rg16uint",
    "rg16sint",
    "rg16float",
    "rgba8unorm",
    "rgba8unorm-srgb",
    "rgba8snorm",
    "rgba8uint",
    "rgba8sint",
    "bgra8unorm",
    "bgra8unorm-srgb",
    // Packed 32-bit formats
    "rgb9e5ufloat",
    "rgb10a2uint",
    "rgb10a2unorm",
    "rg11b10ufloat",

    // 64-bit formats
    "rg32uint",
    "rg32sint",
    "rg32float",
    "rgba16unorm",
    "rgba16snorm",
    "rgba16uint",
    "rgba16sint",
    "rgba16float",

    // 128-bit formats
    "rgba32uint",
    "rgba32sint",
    "rgba32float",

    // Depth/stencil formats
    "stencil8",
    "depth16unorm",
    "depth24plus",
    "depth24plus-stencil8",
    "depth32float",

    // "depth32float-stencil8" feature
    "depth32float-stencil8",

    // BC compressed formats usable if "texture-compression-bc" is both
    // supported by the device/user agent and enabled in requestDevice.
    "bc1-rgba-unorm",
    "bc1-rgba-unorm-srgb",
    "bc2-rgba-unorm",
    "bc2-rgba-unorm-srgb",
    "bc3-rgba-unorm",
    "bc3-rgba-unorm-srgb",
    "bc4-r-unorm",
    "bc4-r-snorm",
    "bc5-rg-unorm",
    "bc5-rg-snorm",
    "bc6h-rgb-ufloat",
    "bc6h-rgb-float",
    "bc7-rgba-unorm",
    "bc7-rgba-unorm-srgb",

    // ETC2 compressed formats usable if "texture-compression-etc2" is both
    // supported by the device/user agent and enabled in requestDevice.
    "etc2-rgb8unorm",
    "etc2-rgb8unorm-srgb",
    "etc2-rgb8a1unorm",
    "etc2-rgb8a1unorm-srgb",
    "etc2-rgba8unorm",
    "etc2-rgba8unorm-srgb",
    "eac-r11unorm",
    "eac-r11snorm",
    "eac-rg11unorm",
    "eac-rg11snorm",

    // ASTC compressed formats usable if "texture-compression-astc" is both
    // supported by the device/user agent and enabled in requestDevice.
    "astc-4x4-unorm",
    "astc-4x4-unorm-srgb",
    "astc-5x4-unorm",
    "astc-5x4-unorm-srgb",
    "astc-5x5-unorm",
    "astc-5x5-unorm-srgb",
    "astc-6x5-unorm",
    "astc-6x5-unorm-srgb",
    "astc-6x6-unorm",
    "astc-6x6-unorm-srgb",
    "astc-8x5-unorm",
    "astc-8x5-unorm-srgb",
    "astc-8x6-unorm",
    "astc-8x6-unorm-srgb",
    "astc-8x8-unorm",
    "astc-8x8-unorm-srgb",
    "astc-10x5-unorm",
    "astc-10x5-unorm-srgb",
    "astc-10x6-unorm",
    "astc-10x6-unorm-srgb",
    "astc-10x8-unorm",
    "astc-10x8-unorm-srgb",
    "astc-10x10-unorm",
    "astc-10x10-unorm-srgb",
    "astc-12x10-unorm",
    "astc-12x10-unorm-srgb",
    "astc-12x12-unorm",
    "astc-12x12-unorm-srgb",
};

[Exposed=(Window, Worker), SecureContext]
interface GPUExternalTexture {
};
GPUExternalTexture includes GPUObjectBase;

dictionary GPUExternalTextureDescriptor
         : GPUObjectDescriptorBase {
    required (HTMLVideoElement or VideoFrame) source;
    PredefinedColorSpace colorSpace = "srgb";
};

[Exposed=(Window, Worker), SecureContext]
interface GPUSampler {
};
GPUSampler includes GPUObjectBase;

dictionary GPUSamplerDescriptor
         : GPUObjectDescriptorBase {
    GPUAddressMode addressModeU = "clamp-to-edge";
    GPUAddressMode addressModeV = "clamp-to-edge";
    GPUAddressMode addressModeW = "clamp-to-edge";
    GPUFilterMode magFilter = "nearest";
    GPUFilterMode minFilter = "nearest";
    GPUMipmapFilterMode mipmapFilter = "nearest";
    float lodMinClamp = 0;
    float lodMaxClamp = 32;
    GPUCompareFunction compare;
    [Clamp] unsigned short maxAnisotropy = 1;
};

enum GPUAddressMode {
    "clamp-to-edge",
    "repeat",
    "mirror-repeat",
};

enum GPUFilterMode {
    "nearest",
    "linear",
};

enum GPUMipmapFilterMode {
    "nearest",
    "linear",
};

enum GPUCompareFunction {
    "never",
    "less",
    "equal",
    "less-equal",
    "greater",
    "not-equal",
    "greater-equal",
    "always",
};

[Exposed=(Window, Worker), SecureContext]
interface GPUBindGroupLayout {
};
GPUBindGroupLayout includes GPUObjectBase;

dictionary GPUBindGroupLayoutDescriptor
         : GPUObjectDescriptorBase {
    required sequence<GPUBindGroupLayoutEntry> entries;
};

dictionary GPUBindGroupLayoutEntry {
    required GPUIndex32 binding;
    required GPUShaderStageFlags visibility;

    GPUBufferBindingLayout buffer;
    GPUSamplerBindingLayout sampler;
    GPUTextureBindingLayout texture;
    GPUStorageTextureBindingLayout storageTexture;
    GPUExternalTextureBindingLayout externalTexture;
};

typedef [EnforceRange] unsigned long GPUShaderStageFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUShaderStage {
    const GPUFlagsConstant VERTEX   = 0x1;
    const GPUFlagsConstant FRAGMENT = 0x2;
    const GPUFlagsConstant COMPUTE  = 0x4;
};

enum GPUBufferBindingType {
    "uniform",
    "storage",
    "read-only-storage",
};

dictionary GPUBufferBindingLayout {
    GPUBufferBindingType type = "uniform";
    boolean hasDynamicOffset = false;
    GPUSize64 minBindingSize = 0;
};

enum GPUSamplerBindingType {
    "filtering",
    "non-filtering",
    "comparison",
};

dictionary GPUSamplerBindingLayout {
    GPUSamplerBindingType type = "filtering";
};

enum GPUTextureSampleType {
    "float",
    "unfilterable-float",
    "depth",
    "sint",
    "uint",
};

dictionary GPUTextureBindingLayout {
    GPUTextureSampleType sampleType = "float";
    GPUTextureViewDimension viewDimension = "2d";
    boolean multisampled = false;
};

enum GPUStorageTextureAccess {
    "write-only",
    "read-only",
    "read-write",
};

dictionary GPUStorageTextureBindingLayout {
    GPUStorageTextureAccess access = "write-only";
    required GPUTextureFormat format;
    GPUTextureViewDimension viewDimension = "2d";
};

dictionary GPUExternalTextureBindingLayout {
};

[Exposed=(Window, Worker), SecureContext]
interface GPUBindGroup {
};
GPUBindGroup includes GPUObjectBase;

dictionary GPUBindGroupDescriptor
         : GPUObjectDescriptorBase {
    required GPUBindGroupLayout layout;
    required sequence<GPUBindGroupEntry> entries;
};

typedef (GPUSampler or
         GPUTexture or
         GPUTextureView or
         GPUBuffer or
         GPUBufferBinding or
         GPUExternalTexture) GPUBindingResource;

dictionary GPUBindGroupEntry {
    required GPUIndex32 binding;
    required GPUBindingResource resource;
};

dictionary GPUBufferBinding {
    required GPUBuffer buffer;
    GPUSize64 offset = 0;
    GPUSize64 size;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUPipelineLayout {
};
GPUPipelineLayout includes GPUObjectBase;

dictionary GPUPipelineLayoutDescriptor
         : GPUObjectDescriptorBase {
    required sequence<GPUBindGroupLayout?> bindGroupLayouts;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUShaderModule {
    Promise<GPUCompilationInfo> getCompilationInfo();
};
GPUShaderModule includes GPUObjectBase;

dictionary GPUShaderModuleDescriptor
         : GPUObjectDescriptorBase {
    required USVString code;
    sequence<GPUShaderModuleCompilationHint> compilationHints = [];
};

dictionary GPUShaderModuleCompilationHint {
    required USVString entryPoint;
    (GPUPipelineLayout or GPUAutoLayoutMode) layout;
};

enum GPUCompilationMessageType {
    "error",
    "warning",
    "info",
};

[Exposed=(Window, Worker), Serializable, SecureContext]
interface GPUCompilationMessage {
    readonly attribute DOMString message;
    readonly attribute GPUCompilationMessageType type;
    readonly attribute unsigned long long lineNum;
    readonly attribute unsigned long long linePos;
    readonly attribute unsigned long long offset;
    readonly attribute unsigned long long length;
};

[Exposed=(Window, Worker), Serializable, SecureContext]
interface GPUCompilationInfo {
    readonly attribute FrozenArray<GPUCompilationMessage> messages;
};

[Exposed=(Window, Worker), SecureContext, Serializable]
interface GPUPipelineError : DOMException {
    constructor(optional DOMString message = "", GPUPipelineErrorInit options);
    readonly attribute GPUPipelineErrorReason reason;
};

dictionary GPUPipelineErrorInit {
    required GPUPipelineErrorReason reason;
};

enum GPUPipelineErrorReason {
    "validation",
    "internal",
};

enum GPUAutoLayoutMode {
    "auto",
};

dictionary GPUPipelineDescriptorBase
         : GPUObjectDescriptorBase {
    required (GPUPipelineLayout or GPUAutoLayoutMode) layout;
};

interface mixin GPUPipelineBase {
    [NewObject] GPUBindGroupLayout getBindGroupLayout(unsigned long index);
};

dictionary GPUProgrammableStage {
    required GPUShaderModule module;
    USVString entryPoint;
    record<USVString, GPUPipelineConstantValue> constants = {};
};

typedef double GPUPipelineConstantValue; // May represent WGSL's bool, f32, i32, u32, and f16 if enabled.

[Exposed=(Window, Worker), SecureContext]
interface GPUComputePipeline {
};
GPUComputePipeline includes GPUObjectBase;
GPUComputePipeline includes GPUPipelineBase;

dictionary GPUComputePipelineDescriptor
         : GPUPipelineDescriptorBase {
    required GPUProgrammableStage compute;
};

[Exposed=(Window, Worker), SecureContext]
interface GPURenderPipeline {
};
GPURenderPipeline includes GPUObjectBase;
GPURenderPipeline includes GPUPipelineBase;

dictionary GPURenderPipelineDescriptor
         : GPUPipelineDescriptorBase {
    required GPUVertexState vertex;
    GPUPrimitiveState primitive = {};
    GPUDepthStencilState depthStencil;
    GPUMultisampleState multisample = {};
    GPUFragmentState fragment;
};

dictionary GPUPrimitiveState {
    GPUPrimitiveTopology topology = "triangle-list";
    GPUIndexFormat stripIndexFormat;
    GPUFrontFace frontFace = "ccw";
    GPUCullMode cullMode = "none";

    // Requires "depth-clip-control" feature.
    boolean unclippedDepth = false;
};

enum GPUPrimitiveTopology {
    "point-list",
    "line-list",
    "line-strip",
    "triangle-list",
    "triangle-strip",
};

enum GPUFrontFace {
    "ccw",
    "cw",
};

enum GPUCullMode {
    "none",
    "front",
    "back",
};

dictionary GPUMultisampleState {
    GPUSize32 count = 1;
    GPUSampleMask mask = 0xFFFFFFFF;
    boolean alphaToCoverageEnabled = false;
};

dictionary GPUFragmentState
         : GPUProgrammableStage {
    required sequence<GPUColorTargetState?> targets;
};

dictionary GPUColorTargetState {
    required GPUTextureFormat format;

    GPUBlendState blend;
    GPUColorWriteFlags writeMask = 0xF;  // GPUColorWrite.ALL
};

dictionary GPUBlendState {
    required GPUBlendComponent color;
    required GPUBlendComponent alpha;
};

typedef [EnforceRange] unsigned long GPUColorWriteFlags;
[Exposed=(Window, Worker), SecureContext]
namespace GPUColorWrite {
    const GPUFlagsConstant RED   = 0x1;
    const GPUFlagsConstant GREEN = 0x2;
    const GPUFlagsConstant BLUE  = 0x4;
    const GPUFlagsConstant ALPHA = 0x8;
    const GPUFlagsConstant ALL   = 0xF;
};

dictionary GPUBlendComponent {
    GPUBlendOperation operation = "add";
    GPUBlendFactor srcFactor = "one";
    GPUBlendFactor dstFactor = "zero";
};

enum GPUBlendFactor {
    "zero",
    "one",
    "src",
    "one-minus-src",
    "src-alpha",
    "one-minus-src-alpha",
    "dst",
    "one-minus-dst",
    "dst-alpha",
    "one-minus-dst-alpha",
    "src-alpha-saturated",
    "constant",
    "one-minus-constant",
    "src1",
    "one-minus-src1",
    "src1-alpha",
    "one-minus-src1-alpha",
};

enum GPUBlendOperation {
    "add",
    "subtract",
    "reverse-subtract",
    "min",
    "max",
};

dictionary GPUDepthStencilState {
    required GPUTextureFormat format;

    boolean depthWriteEnabled;
    GPUCompareFunction depthCompare;

    GPUStencilFaceState stencilFront = {};
    GPUStencilFaceState stencilBack = {};

    GPUStencilValue stencilReadMask = 0xFFFFFFFF;
    GPUStencilValue stencilWriteMask = 0xFFFFFFFF;

    GPUDepthBias depthBias = 0;
    float depthBiasSlopeScale = 0;
    float depthBiasClamp = 0;
};

dictionary GPUStencilFaceState {
    GPUCompareFunction compare = "always";
    GPUStencilOperation failOp = "keep";
    GPUStencilOperation depthFailOp = "keep";
    GPUStencilOperation passOp = "keep";
};

enum GPUStencilOperation {
    "keep",
    "zero",
    "replace",
    "invert",
    "increment-clamp",
    "decrement-clamp",
    "increment-wrap",
    "decrement-wrap",
};

enum GPUIndexFormat {
    "uint16",
    "uint32",
};

enum GPUVertexFormat {
    "uint8",
    "uint8x2",
    "uint8x4",
    "sint8",
    "sint8x2",
    "sint8x4",
    "unorm8",
    "unorm8x2",
    "unorm8x4",
    "snorm8",
    "snorm8x2",
    "snorm8x4",
    "uint16",
    "uint16x2",
    "uint16x4",
    "sint16",
    "sint16x2",
    "sint16x4",
    "unorm16",
    "unorm16x2",
    "unorm16x4",
    "snorm16",
    "snorm16x2",
    "snorm16x4",
    "float16",
    "float16x2",
    "float16x4",
    "float32",
    "float32x2",
    "float32x3",
    "float32x4",
    "uint32",
    "uint32x2",
    "uint32x3",
    "uint32x4",
    "sint32",
    "sint32x2",
    "sint32x3",
    "sint32x4",
    "unorm10-10-10-2",
    "unorm8x4-bgra",
};

enum GPUVertexStepMode {
    "vertex",
    "instance",
};

dictionary GPUVertexState
         : GPUProgrammableStage {
    sequence<GPUVertexBufferLayout?> buffers = [];
};

dictionary GPUVertexBufferLayout {
    required GPUSize64 arrayStride;
    GPUVertexStepMode stepMode = "vertex";
    required sequence<GPUVertexAttribute> attributes;
};

dictionary GPUVertexAttribute {
    required GPUVertexFormat format;
    required GPUSize64 offset;

    required GPUIndex32 shaderLocation;
};

dictionary GPUTexelCopyBufferLayout {
    GPUSize64 offset = 0;
    GPUSize32 bytesPerRow;
    GPUSize32 rowsPerImage;
};

dictionary GPUTexelCopyBufferInfo
         : GPUTexelCopyBufferLayout {
    required GPUBuffer buffer;
};

dictionary GPUTexelCopyTextureInfo {
    required GPUTexture texture;
    GPUIntegerCoordinate mipLevel = 0;
    GPUOrigin3D origin = {};
    GPUTextureAspect aspect = "all";
};

dictionary GPUCopyExternalImageDestInfo
         : GPUTexelCopyTextureInfo {
    PredefinedColorSpace colorSpace = "srgb";
    boolean premultipliedAlpha = false;
};

typedef (ImageBitmap or
         ImageData or
         HTMLImageElement or
         HTMLVideoElement or
         VideoFrame or
         HTMLCanvasElement or
         OffscreenCanvas) GPUCopyExternalImageSource;

dictionary GPUCopyExternalImageSourceInfo {
    required GPUCopyExternalImageSource source;
    GPUOrigin2D origin = {};
    boolean flipY = false;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUCommandBuffer {
};
GPUCommandBuffer includes GPUObjectBase;

dictionary GPUCommandBufferDescriptor
         : GPUObjectDescriptorBase {
};

interface mixin GPUCommandsMixin {
};

[Exposed=(Window, Worker), SecureContext]
interface GPUCommandEncoder {
    GPURenderPassEncoder beginRenderPass(GPURenderPassDescriptor descriptor);
    GPUComputePassEncoder beginComputePass(optional GPUComputePassDescriptor descriptor = {});

    undefined copyBufferToBuffer(
        GPUBuffer source,
        GPUBuffer destination,
        optional GPUSize64 size);
    undefined copyBufferToBuffer(
        GPUBuffer source,
        GPUSize64 sourceOffset,
        GPUBuffer destination,
        GPUSize64 destinationOffset,
        optional GPUSize64 size);

    undefined copyBufferToTexture(
        GPUTexelCopyBufferInfo source,
        GPUTexelCopyTextureInfo destination,
        GPUExtent3D copySize);

    undefined copyTextureToBuffer(
        GPUTexelCopyTextureInfo source,
        GPUTexelCopyBufferInfo destination,
        GPUExtent3D copySize);

    undefined copyTextureToTexture(
        GPUTexelCopyTextureInfo source,
        GPUTexelCopyTextureInfo destination,
        GPUExtent3D copySize);

    undefined clearBuffer(
        GPUBuffer buffer,
        optional GPUSize64 offset = 0,
        optional GPUSize64 size);

    undefined resolveQuerySet(
        GPUQuerySet querySet,
        GPUSize32 firstQuery,
        GPUSize32 queryCount,
        GPUBuffer destination,
        GPUSize64 destinationOffset);

    GPUCommandBuffer finish(optional GPUCommandBufferDescriptor descriptor = {});
};
GPUCommandEncoder includes GPUObjectBase;
GPUCommandEncoder includes GPUCommandsMixin;
GPUCommandEncoder includes GPUDebugCommandsMixin;

dictionary GPUCommandEncoderDescriptor
         : GPUObjectDescriptorBase {
};

interface mixin GPUBindingCommandsMixin {
    undefined setBindGroup(GPUIndex32 index, GPUBindGroup? bindGroup,
        optional sequence<GPUBufferDynamicOffset> dynamicOffsets = []);

    undefined setBindGroup(GPUIndex32 index, GPUBindGroup? bindGroup,
        [AllowShared] Uint32Array dynamicOffsetsData,
        GPUSize64 dynamicOffsetsDataStart,
        GPUSize32 dynamicOffsetsDataLength);
};

interface mixin GPUDebugCommandsMixin {
    undefined pushDebugGroup(USVString groupLabel);
    undefined popDebugGroup();
    undefined insertDebugMarker(USVString markerLabel);
};

[Exposed=(Window, Worker), SecureContext]
interface GPUComputePassEncoder {
    undefined setPipeline(GPUComputePipeline pipeline);
    undefined dispatchWorkgroups(GPUSize32 workgroupCountX, optional GPUSize32 workgroupCountY = 1, optional GPUSize32 workgroupCountZ = 1);
    undefined dispatchWorkgroupsIndirect(GPUBuffer indirectBuffer, GPUSize64 indirectOffset);

    undefined end();
};
GPUComputePassEncoder includes GPUObjectBase;
GPUComputePassEncoder includes GPUCommandsMixin;
GPUComputePassEncoder includes GPUDebugCommandsMixin;
GPUComputePassEncoder includes GPUBindingCommandsMixin;

dictionary GPUComputePassTimestampWrites {
    required GPUQuerySet querySet;
    GPUSize32 beginningOfPassWriteIndex;
    GPUSize32 endOfPassWriteIndex;
};

dictionary GPUComputePassDescriptor
         : GPUObjectDescriptorBase {
    GPUComputePassTimestampWrites timestampWrites;
};

[Exposed=(Window, Worker), SecureContext]
interface GPURenderPassEncoder {
    undefined setViewport(float x, float y,
        float width, float height,
        float minDepth, float maxDepth);

    undefined setScissorRect(GPUIntegerCoordinate x, GPUIntegerCoordinate y,
                        GPUIntegerCoordinate width, GPUIntegerCoordinate height);

    undefined setBlendConstant(GPUColor color);
    undefined setStencilReference(GPUStencilValue reference);

    undefined beginOcclusionQuery(GPUSize32 queryIndex);
    undefined endOcclusionQuery();

    undefined executeBundles(sequence<GPURenderBundle> bundles);
    undefined end();
};
GPURenderPassEncoder includes GPUObjectBase;
GPURenderPassEncoder includes GPUCommandsMixin;
GPURenderPassEncoder includes GPUDebugCommandsMixin;
GPURenderPassEncoder includes GPUBindingCommandsMixin;
GPURenderPassEncoder includes GPURenderCommandsMixin;

dictionary GPURenderPassTimestampWrites {
    required GPUQuerySet querySet;
    GPUSize32 beginningOfPassWriteIndex;
    GPUSize32 endOfPassWriteIndex;
};

dictionary GPURenderPassDescriptor
         : GPUObjectDescriptorBase {
    required sequence<GPURenderPassColorAttachment?> colorAttachments;
    GPURenderPassDepthStencilAttachment depthStencilAttachment;
    GPUQuerySet occlusionQuerySet;
    GPURenderPassTimestampWrites timestampWrites;
    GPUSize64 maxDrawCount = 50000000;
};

dictionary GPURenderPassColorAttachment {
    required (GPUTexture or GPUTextureView) view;
    GPUIntegerCoordinate depthSlice;
    (GPUTexture or GPUTextureView) resolveTarget;

    GPUColor clearValue;
    required GPULoadOp loadOp;
    required GPUStoreOp storeOp;
};

dictionary GPURenderPassDepthStencilAttachment {
    required (GPUTexture or GPUTextureView) view;

    float depthClearValue;
    GPULoadOp depthLoadOp;
    GPUStoreOp depthStoreOp;
    boolean depthReadOnly = false;

    GPUStencilValue stencilClearValue = 0;
    GPULoadOp stencilLoadOp;
    GPUStoreOp stencilStoreOp;
    boolean stencilReadOnly = false;
};

enum GPULoadOp {
    "load",
    "clear",
};

enum GPUStoreOp {
    "store",
    "discard",
};

dictionary GPURenderPassLayout
         : GPUObjectDescriptorBase {
    required sequence<GPUTextureFormat?> colorFormats;
    GPUTextureFormat depthStencilFormat;
    GPUSize32 sampleCount = 1;
};

interface mixin GPURenderCommandsMixin {
    undefined setPipeline(GPURenderPipeline pipeline);

    undefined setIndexBuffer(GPUBuffer buffer, GPUIndexFormat indexFormat, optional GPUSize64 offset = 0, optional GPUSize64 size);
    undefined setVertexBuffer(GPUIndex32 slot, GPUBuffer? buffer, optional GPUSize64 offset = 0, optional GPUSize64 size);

    undefined draw(GPUSize32 vertexCount, optional GPUSize32 instanceCount = 1,
        optional GPUSize32 firstVertex = 0, optional GPUSize32 firstInstance = 0);
    undefined drawIndexed(GPUSize32 indexCount, optional GPUSize32 instanceCount = 1,
        optional GPUSize32 firstIndex = 0,
        optional GPUSignedOffset32 baseVertex = 0,
        optional GPUSize32 firstInstance = 0);

    undefined drawIndirect(GPUBuffer indirectBuffer, GPUSize64 indirectOffset);
    undefined drawIndexedIndirect(GPUBuffer indirectBuffer, GPUSize64 indirectOffset);
};

[Exposed=(Window, Worker), SecureContext]
interface GPURenderBundle {
};
GPURenderBundle includes GPUObjectBase;

dictionary GPURenderBundleDescriptor
         : GPUObjectDescriptorBase {
};

[Exposed=(Window, Worker), SecureContext]
interface GPURenderBundleEncoder {
    GPURenderBundle finish(optional GPURenderBundleDescriptor descriptor = {});
};
GPURenderBundleEncoder includes GPUObjectBase;
GPURenderBundleEncoder includes GPUCommandsMixin;
GPURenderBundleEncoder includes GPUDebugCommandsMixin;
GPURenderBundleEncoder includes GPUBindingCommandsMixin;
GPURenderBundleEncoder includes GPURenderCommandsMixin;

dictionary GPURenderBundleEncoderDescriptor
         : GPURenderPassLayout {
    boolean depthReadOnly = false;
    boolean stencilReadOnly = false;
};

dictionary GPUQueueDescriptor
         : GPUObjectDescriptorBase {
};

[Exposed=(Window, Worker), SecureContext]
interface GPUQueue {
    undefined submit(sequence<GPUCommandBuffer> commandBuffers);

    Promise<undefined> onSubmittedWorkDone();

    undefined writeBuffer(
        GPUBuffer buffer,
        GPUSize64 bufferOffset,
        AllowSharedBufferSource data,
        optional GPUSize64 dataOffset = 0,
        optional GPUSize64 size);

    undefined writeTexture(
        GPUTexelCopyTextureInfo destination,
        AllowSharedBufferSource data,
        GPUTexelCopyBufferLayout dataLayout,
        GPUExtent3D size);

    undefined copyExternalImageToTexture(
        GPUCopyExternalImageSourceInfo source,
        GPUCopyExternalImageDestInfo destination,
        GPUExtent3D copySize);
};
GPUQueue includes GPUObjectBase;

[Exposed=(Window, Worker), SecureContext]
interface GPUQuerySet {
    undefined destroy();

    readonly attribute GPUQueryType type;
    readonly attribute GPUSize32Out count;
};
GPUQuerySet includes GPUObjectBase;

dictionary GPUQuerySetDescriptor
         : GPUObjectDescriptorBase {
    required GPUQueryType type;
    required GPUSize32 count;
};

enum GPUQueryType {
    "occlusion",
    "timestamp",
};

[Exposed=(Window, Worker), SecureContext]
interface GPUCanvasContext {
    readonly attribute (HTMLCanvasElement or OffscreenCanvas) canvas;

    undefined configure(GPUCanvasConfiguration configuration);
    undefined unconfigure();

    GPUCanvasConfiguration? getConfiguration();
    GPUTexture getCurrentTexture();
};

enum GPUCanvasAlphaMode {
    "opaque",
    "premultiplied",
};

enum GPUCanvasToneMappingMode {
    "standard",
    "extended",
};

dictionary GPUCanvasToneMapping {
  GPUCanvasToneMappingMode mode = "standard";
};

dictionary GPUCanvasConfiguration {
    required GPUDevice device;
    required GPUTextureFormat format;
    GPUTextureUsageFlags usage = 0x10;  // GPUTextureUsage.RENDER_ATTACHMENT
    sequence<GPUTextureFormat> viewFormats = [];
    PredefinedColorSpace colorSpace = "srgb";
    GPUCanvasToneMapping toneMapping = {};
    GPUCanvasAlphaMode alphaMode = "opaque";
};

enum GPUDeviceLostReason {
    "unknown",
    "destroyed",
};

[Exposed=(Window, Worker), SecureContext]
interface GPUDeviceLostInfo {
    readonly attribute GPUDeviceLostReason reason;
    readonly attribute DOMString message;
};

partial interface GPUDevice {
    readonly attribute Promise<GPUDeviceLostInfo> lost;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUError {
    readonly attribute DOMString message;
};

[Exposed=(Window, Worker), SecureContext]
interface GPUValidationError
        : GPUError {
    constructor(DOMString message);
};

[Exposed=(Window, Worker), SecureContext]
interface GPUOutOfMemoryError
        : GPUError {
    constructor(DOMString message);
};

[Exposed=(Window, Worker), SecureContext]
interface GPUInternalError
        : GPUError {
    constructor(DOMString message);
};

enum GPUErrorFilter {
    "validation",
    "out-of-memory",
    "internal",
};

partial interface GPUDevice {
    undefined pushErrorScope(GPUErrorFilter filter);
    Promise<GPUError?> popErrorScope();
};

[Exposed=(Window, Worker), SecureContext]
interface GPUUncapturedErrorEvent : Event {
    constructor(
        DOMString type,
        GPUUncapturedErrorEventInit gpuUncapturedErrorEventInitDict
    );
    [SameObject] readonly attribute GPUError error;
};

dictionary GPUUncapturedErrorEventInit : EventInit {
    required GPUError error;
};

partial interface GPUDevice {
    attribute EventHandler onuncapturederror;
};

typedef [EnforceRange] unsigned long GPUBufferDynamicOffset;
typedef [EnforceRange] unsigned long GPUStencilValue;
typedef [EnforceRange] unsigned long GPUSampleMask;
typedef [EnforceRange] long GPUDepthBias;

typedef [EnforceRange] unsigned long long GPUSize64;
typedef [EnforceRange] unsigned long GPUIntegerCoordinate;
typedef [EnforceRange] unsigned long GPUIndex32;
typedef [EnforceRange] unsigned long GPUSize32;
typedef [EnforceRange] long GPUSignedOffset32;

typedef unsigned long long GPUSize64Out;
typedef unsigned long GPUIntegerCoordinateOut;
typedef unsigned long GPUSize32Out;

typedef unsigned long GPUFlagsConstant;

dictionary GPUColorDict {
    required double r;
    required double g;
    required double b;
    required double a;
};
typedef (sequence<double> or GPUColorDict) GPUColor;

dictionary GPUOrigin2DDict {
    GPUIntegerCoordinate x = 0;
    GPUIntegerCoordinate y = 0;
};
typedef (sequence<GPUIntegerCoordinate> or GPUOrigin2DDict) GPUOrigin2D;

dictionary GPUOrigin3DDict {
    GPUIntegerCoordinate x = 0;
    GPUIntegerCoordinate y = 0;
    GPUIntegerCoordinate z = 0;
};
typedef (sequence<GPUIntegerCoordinate> or GPUOrigin3DDict) GPUOrigin3D;

dictionary GPUExtent3DDict {
    required GPUIntegerCoordinate width;
    GPUIntegerCoordinate height = 1;
    GPUIntegerCoordinate depthOrArrayLayers = 1;
};
typedef (sequence<GPUIntegerCoordinate> or GPUExtent3DDict) GPUExtent3D;