SDRの標準?

SDRの標準とはなんだろうか。
これは永遠に答えなど出ることはない。
なぜなら定義がされていないからである。

標準と見なされているものはある。しかし必ずしもそれが全てではない。
bt.709について言えばガンマはレガシー(1.9相当)であるし、bt.1886であればガンマは2.4だ。
余談だがDaVinci ResolveでREC.709(SCENE)を選択すると1.9相当のレガシーとなるである。
輝度レンジはそのテレビの最低値と最大値、となっているが、これでは映像制作には使えないので例えば0.01や0.117cd/m2を最低黒とし、基準白は100cd/m2である。

間違えてはならないのはこの範囲の明るさしかSDRには入らないのではなく、この範囲で表示するのを基準とするというだけのことだ。
例えば15万cd/m2を100cd/m2に割り当ててもよい。これはあくまで映像制作時のさじ加減一つの問題である。

DaVinci Resolveの様に高度なカラーマネジメントの機能を有するNLE等では、インプットカラースペースとアウトプットカラースペースを指定できる。
どのOETF当ててるか=どのEOTFなら正しく見えるか、を意味するのがインプットカラースペースで
どのEOTFで見るのを想定しているか、つまりどのOETF当てるかがアウトプットカラースペースである。
このOETF/EOTFは常に対の関係にあり、同じであることが好ましい。

SDRじゃなくHDRやログではこの辺りが分かりやすい。間違えると一発で画が破綻する。
一方SDRでは複雑で。SDRにガンマ値の定義がなく、違う物を当ててしまってもそれなりに見えてしまう。
ちなみにEOTF/OETFの違いをシステムガンマやトータルガンマと呼ぶ。
ちなみに環境光でガンマを変えるべきだというのがいるが、それで変えるべきはバックライトの明るさ、つまりゲインであってガンマではない。ガンマは見え方に直結するのでHDRグレーディングなどの高度なグレーディングをする場合以外は安易に変えてはならない。

改めてSDRにおけるガンマの定義だが、上に書いてる通り、定義は無い。一番間違いないのはレガシー(1.9)だ。
このガンマでやった、と確定しているならそれを指定するのが良い。
確率論的なことを言えば、bt.1886だろう、として2.4もいいのだが、黒が出すぎる可能性が高い。
一般にガンマを強くすればするほど暗くなり、色がどぎつく派手になる傾向がある。
安全なのは2.2やsRGB。出過ぎることもなく、1.9の様に黒側が浮いて見えることもない。一般のテレビのガンマは2.2程度とも言われているので、テレビに近い見え方になる可能性も高い。
一番確実なのは1.9で入れて自分で黒側調整することである。これなら問題を最大限避けることが出来るだろう。
例えばカラーマネジメントちゃんとしてない状態で映像扱うと、それこそsRGBでやってる可能性もある。
それを放送なり配信で見ると、2.2のテレビはいいが、2.4だと黒がきついし1.9だと黒が浮くようになる。
SDRではこのあたりの管理がまるで出来ていないのが今も続いている問題である。

先も触れたが、ガンマの違いに起因する見え方のズレをシステムガンマやトータルガンマと呼んだりする。
個人的にはそうじゃなく正しいガンマを意識したほうが良い。
2.2で見るための映像なら2.2でエンコードすればいいである。
例えばOETFガンマ1.9でEOTFガンマ2.4で出力した映像、これで0-100cd/m2までst2084のレベルでリニアに上がる要調整した映像を考えると、わかりやすい。その出力信号のガンマ値、結局いくつなのだろう。
正解は2.4である。
逆にOETF2.4でもEOTFが1.9や2.2なら読み込みの指定は1.9や2.2となる。

HDRや各社カメラメーカーのログやリニアが優れるのは、こうしたガンマに起因する混乱を排除出来るようになったことだろう。
SLog3にSLog3 ガンマ1.9とSLog3 ガンマ2.4があったりしないのだ。

この記事が気に入ったらサポートをしてみませんか?