音楽ライブ配信のための映像撮影(映像の画質)

前回は、ビデオスイッチャーを使ったマルチカメラ撮影について少しお話ししました。今回は、配信される映像の画質について、考えてみたいと思います。

よく、高画質配信なんて言っていますが、一体その高画質っていうのは、何なんでしょうか。4Kカメラで撮影したから高画質なんでしょうか。カメラやレンズのお話しはこれまでもしてきましたが、画質は、カメラやレンズだけで決まってしまうのでしょうか。

映像を見て、良い画質だと感じるかどうかは個人差もあって、画質というものを数値化するのは難しいのだと思います。比べてみてどっちが良いかという世界なかもしれませんが、さて高画質を目指そうとした場合に、なにをどう改善すれば良いのか、なにか目安が無いと困ります。

動画の画質に関係しそうな要素は色々ありますが、一般的な民生用カメラで行うライブ配信の場合は、主に次の4つが画質に関係してくると思います。

・ 画素数
・ カメラの解像度
・ 高感度ノイズ
・ ビットレート

今回は、これらの要素について考えてみましょう。


1. 画素数

動画は、たくさんの写真を連続して撮影し、パラパラ漫画のように再生するようなものだという話を以前にしたと思います。この時、1枚の写真を構成する画素(ピクセル)の数を画素数と言います。例えば、配信で一般的なFHDの場合は、1920 x 1080 = 約200万画素で1画面が構成されます。4Kの場合は、縦と横がそれぞれ2倍になり、3840 x 2160 = 約800万画素になります。

(1) 画素数と画面解像度

画素数を、画面の解像度と呼ぶことも多いのですが、本来画面解像度とは、画面を構成するピクセルの密度の事であり、画面の大きさに依存する指標になります。

例えば同じFHDの画素数でも、大画面であれば画面解像度は低く、スマホの画面で見れば、画面解像度は高くなります。画面サイズを固定して考えた場合だけ、画素数と画面解像度は同じ意味になります。

(2) 画素数の指定

さて、ライブ配信の画素数ですが、配信ソフトのOBSで指定する事ができます。配信環境によっては画素数をHD(1280 x 720)に下げたりしますが、通常のネット環境であれば、FHDで問題無いでしょう。パソコンの画面で見る程度であれば、FHDで十分な画素数があります。

(3) 画素数と画質

ところで、みなさんのスマホのカメラの画素数はどの位でしょうか。私の古いiPhone7のカメラの画素数は、1200万画素で、高画質の代名詞のようになっている4Kの画素数(800万画素)の1.5倍もあります。FHD(200万画素)と比較すると6倍ですから、十分過ぎる程の画素数を持っています。

じゃあ、同じような画素数なんだから、スマホやアクションカメラで撮影した映像の画質が良いのかと言うと、なんだかそうでもありません。その違いはどこからくるのか、他の要素も見てゆきたいと思います。


2.カメラの解像度

解像度とは、ピクセルの密度の事である事は前項で説明しましたが、それは、DTPなどの世界の話しでして、実は、カメラの世界では少し別の捉え方があります。紛らわしいので、このnoteでは、カメラの世界の解像度を、「カメラの解像度」と呼ぶことにします。

カメラの解像度は、画像や映像を構成するピクセルが、どれだけ正しく描かれているかという意味になります。

カメラの解像度の中心は、レンズの解像度になるのですが、最近は、カメラ本体(ボディ)側でも解像度を向上させる工夫が行われていますので、それぞれについて考えてみます。

(1) レンズの解像度

デジタルカメラは、レンズで集めた光をイメージセンサーに当て、ピクセル単位に感じた光を電気信号に変えて画像にする訳ですが、もし、イメージセンサーのある1つのピクセルに、隣のピクセルに当たるべき光が紛れ込んでしまったら、どうなるでしょう。恐らく、その辺のピクセルの色が滲んだ映像になってしまいます。

イメージセンサーの大きさは、指の先か、それよりちょっと大きい位です。その大きさの中に、1200万とか2000万とかいうピクセルがある訳で、1ピクセルの大きさはとても微細なものです。例えば風景を撮影するとして、その風景の中の1本の木の、1枚の葉っぱの先端から出た光が、レンズの色々な部分を通り、その葉っぱの先端を描く微細なピクセルだけに正確に集まらないといけないのです。

はっきり言って、スマホの安価で小さなレンズにそれだけの精度があるでしょうか。スマホで撮影した写真を拡大してみると良く分かりますが、ピクセル単位まで拡大して見ると、ピクセル同士の色がかなり滲んでしまっていて、物の境界が曖昧になっています。

このように、ピクセル毎の色や光が曖昧になってしまうと、映像全体は、なんだかはっきりしない感じになります。映像を正確に表現するためには、画素数が多いだけでなく、画素(ピクセル)を正しく描くため、解像度の高いレンズが必要になります。

時々街で、一眼レフカメラを首から下げたおじさんを見かけますが、なぜあんなに大きくて、恐らく高価なレンズを見せびらかすのかと言うと、そういう事なのです。

4Kカメラなどと言っても、それ程のレンズ解像度の無いカメラが沢山あります。画素数だけに惑わされないように気を付けましょう。

(2) カメラ本体の解像度

本当は解像度という言葉を使うべきではないかもしれませんが、便宜上、カメラ本体の解像度にかかわる機能をカメラ本体の解像度と呼んでおきます。

殆どのデジタルカメラは、ベイヤー配列という配列のカラーフィルターを使って、イメージセンサーに光を当てています。このタイプのイメージセンサーは、1ピクセルで1色しか感じる事ができません。

センサー全体のピクセルを、緑が2、赤と青がそれぞれ1の割合で配分し、均等に並べていると考えてください。緑が多いのは、緑が輝度に敏感だからです。


さて、例えば緑のピクセルだとして、そのピクセルの赤と青の光はどう感じるんだと心配になりますが、そこは、カメラのソフトウェアが、近くの赤ピクセルや青ピクセルの値を使って、「想像」してくれます。映像のピクセルが、正しい色で描かれるかどうかは、この「想像」の精度にかかっています。カメラメーカーが、「映像エンジン」なんて呼んで自慢している部分ですが、この「想像」が正しければ、各ピクセルも正しく描かれ、結果的にカメラの解像度が向上します。

まあ、あくまで「想像」ですので、実際には必ずしも正確ではありません。時々変な色が出てしまって、偽色やモアレといった現象が現れます。この変な色を減らすため、フィルターのカラー配列をベイヤー配列から独自の配列に変えたり、ローパスフィルターというフィルターを使って、僅かに各ピクセルの光を均一化したりして、なるべく変な色が出ないように工夫しています。

ローパスフィルターについては、賛否両論あるようですが、一般的には、ローパスフィルターを使うと、僅かに光をぼかすので解像度が低下すると言われています。ライブ配信の映像で、そこまで解像度の違いが判る訳ではありませんが、将来のために少し頭に入れておいても良いかと思います。

私がお勧めのGX7MK2は、ローパスフィルターを無くして高い解像度を実現している事になっていますので、一応自慢しておきます。


3. 高感度ノイズ

カメラのレンズを通った光は、イメージセンサーでピクセル毎の電気信号に変換される訳ですが、ここで、イメージセンサーで発生するノイズが問題になります。

(1) センサー感度

カメラによってイメージセンサーの大きさは様々で、1ピクセル当たりの面積も様々です。また、レンズが集める光の量もレンズによって異なりますので、1ピクセルに当たる光の強さは、カメラやレンズによって様々になります。

スマホやアクションカメラのように小さなイメージセンサーのカメラは、1ピクセルに当たる光が少ないですから、イメージセンサーの基本的な感度は高く設定されています。大きな35㎜フルサイズセンサーのカメラであれば、1ピクセルの面積が大きく、そこに当たる光も多くなりますから、イメージセンサーの基本的な感度は低くできます。

実際の撮影時は、その環境の光や、使用するレンズに応じて、イメージセンサーの感度を調整します。この時の設定値が、ISO感度と呼ばれるものです。イメージセンサーの小さなカメラと、イメージセンサーの大きなカメラでは、ベースとなる基本的な感度が異なりますから、同じISO感度でも、実質的なセンサーの感度は異なってきます。

(2) 高感度ノイズとノイズリダクション

ここで、イメージセンサーで発生するノイズが問題になります。音声でも、マイクの感度を上げ過ぎるとノイズが入るように、イメージセンサーも、感度を上げると、光が無いのに不規則に光を感じてしまって、それがノイズ(高感度ノイズ)になります。

高感度ノイズには、2種類があって、ピクセルの輝度が変わって画面がザラザラするものを輝度ノイズ、ピクセルの色が変な色(偽色)になものをカラーノイズと呼びます。高感度にすると、この輝度ノイズとカラーノイズの両方が発生します。

さて、この高感度ノイズですが、JPEG画像や動画では、カメラが自動的に異常な光や色を消してくれるので、画像や映像を見てノイズに気付く事は殆どありません。このノイズを消す処理を、ノイズリダクション処理と呼びます。

(3) ノイズリダクション処理の影響

じゃあそれで良いだろうと思いたい所ですが、ここで問題になるのは、そのノイズリダクション処理によって、画質が低下してしまう事なのです。

このことは、これまでにも何度か話題にしましたので、前のnoteをお読みいただいた方は、既にご存じだろうと思います。ノイズリダクションは、簡単に言うと、周りとかけ離れた明るさや色のピクセルを、ノイズだと思って周りと同じ感じに合わせる処理です。したがって、これを強くすると、本来は、別々の明るさや色だった筈のピクセルまで均一化されてしまい、細かい凹凸などが表現できなくなってきます。

とくに暗い環境で撮影するライブ配信の場合、ノイズリダクション処理による画質の低下が顕著になります。この問題を避けるためには、イメージセンサーの感度を低くする事が必要ですが、そのためには、イメージセンサーの1ピクセルに入る光の量を多くする事が必要になります。カメラやレンズによる光の量の違いは、画質の違いを生む大きな原因になります。


4. ビットレート

動画を記録したりライブ配信する場合は、動画のデータを転送用に圧縮してから送信されます。このデータ圧縮や、復元などの方式をビデオコーディングフォーマットと呼びますが、一般には略してビデオコーデックと呼んだりします。

(1) H.264

動画配信では、H.264(正式には、H.264/MPEG-4 AVC)というコーディングフォーマット(以後コーデックと呼びます)が一般的です。動画のデータを、このコーデックに変換する事をエンコード、また動画に復元する事をデコードと呼びます。配信ソフトにはエンコーダーの指定がありますが、このエンコードを行うソフトウェアパーツがエンコーダーです。

実は、私もH.264について詳しく知っている訳ではありませんが、簡単に言うと、動画というのは、画像が少しずつ変化するものであるという前提で、前のフレームや、基準となるフレームからの差分だけをデータ化する事で、データを圧縮します。単に差を取るだけでなく、画像の変化をブロック単位に予測し、その予測と実際の差をデータ化したりするようです。

また、早く動いている部分は少し画質を落としたり、色調が似ている部分は、輝度だけ変えて色は同じにしてしまったりとか、人間が気付かない部分のデータはちょっと誤魔化しちゃうようです。

(2) ビットレートと画質

さて、このデータ圧縮の強さは、エンコード時に映像のビットレートを指定する事で変化します。ビットレートを高くすれば、圧縮率は低くなり、誤魔化しは少しで済むようになります。ビットレートは、単時間あたりに発生するデータの量を意味し、通常は、秒あたりのビット数(bps:Bit Per Second)という単位で表します。

ビットレートが低いと、圧縮率を上げるため、色々な手を使って映像を誤魔化すようになり、画質が低下します。場合によっては、画面の同色のブロックがつながってしまい、タイル絵のようになってしまいますが、この現象をブロックノイズと呼びます。ブロックノイズは、似たような色が続く領域で顕著になります。良く水面の映像などでブロックノイズが目立ちますが、ライブのシーンであれば、背景の壁やカーテンなどではっきっり見える事があります。

配信される動画の画質は、最終的にこのビットレートで決まってくる面があります。どんなに良いカメラとレンズで撮影しても、ビットレートが低いと、その画質を見る側に伝える事ができません。

(3) ビットレートの設定

FHD1080p 30fpsの場合、録画などで高画質とい言えるビットレートは20~25Mbpsになりますが、実際の配信では、これよりずっと低いビットレートが使われます。配信ソフトのOBSの初期値は、2.5Mbpsで、高画質ビットレートの1/10程度になっています。

ビットレートは、配信プラットフォーム側でも上限を設定していて、例えばYoutubeのビットレートの上限は、9Mbpsになっています。

ビットレートを上げると、配信用パソコンのエンコード処理量が増え、パソコンに負荷がかかります。グラフィックプロセッサーを持ったパソコンであれば、ハードウェアエンコーダーを使うと、GPUが頑張って処理してくれます。どの程度のビットレートまで上げられるかは、実際にテスト配信を行って、配信用パソコン側のCPUやGPUの使用率を見て判断してください。

(4) フレームレートとビットレート

なお、フレームレートを30fps から60fpsにした場合、さらにビットレートを上げないと画質が低下します。一般的なライブ配信では、撮影時のシャッター速度が1/30程度の場合が多いので、むやみに60fpsにするより、30fpsにしてビットレートをを上げて行く方が、結果的に良い画質で配信できる場合があります。

(5) H.265

H.264は、現状では圧縮率が高い方ですが、さらに画質を落とさずにデータを圧縮できるH.265というコーデックも使われ始めています。H.265は、まだ処理の負荷が大きく、一般のパソコンでエンコード/デコードするのは現実的ではありませんが、同じネットワーク環境でずっと良い画像を配信できる世界が、そのうち実現するのだと思います。


5. 画質を良くするためにできる事

簡単に言ってしまうと、画質を良くしたければ、良いカメラとレンズを買いましょうという事になりますが、予算も限られますし、そう簡単ではありませんね。今あるカメラを使うという前提で、ライブ配信の画質を良くするためにできる事を考えてみたいと思います。

(1)画素数とビットレートの指定

画素数は、特に制約が無ければFHDとして、ビットレートを調整します。ビットレートは、その配信環境で、できるだけ大きくすれば良く、あまり深く考える事はありません。もし、まだビットレートを調整していないのであれば、パソコンの負荷を見ながら、少しビットレートを上げると良いでしょう。

但し、撮影するカメラ側の解像度が良くないと、ビットレートを上げた効果は限定的になります。

パソコンの負荷を見る場合、OBSで表示されるCPU利用率はあまり当てになりません。Windowsであれば、タスクマネージャーのパフォーマンス表示を使って、CPUやGPUの利用率をモニターしてください。

(2)照明やカメラの設定

画質のために一番できる事は、イメージセンサーに入る光を増やし、イメージセンサーの感度を下げる事です。

感度が自動的に決まるカメラの場合であれば、カメラに入る光の量をできるだけ増やす事で、感度を低くする事ができます。もしライブ会場の照明を工夫をできるのであれば、雰囲気を壊さない範囲で、会場を少しでも明るくしましょう。

もし映像の明るさを指定できるカメラであれば、映像をを少し暗めに撮影する事で、イメージセンサーの感度を下げられる場合もあります。

(3) 明るいレンズの使用

ミラーレス一眼のようにレンズを交換できるカメラの場合は、できるだけ明るいレンズを使って、イメージセンサーに入る光を増やします。

レンズには、開放F値という値が定義されていて、その開放F値が小さい方が、より多くの光を集める事ができます。明るいレンズという言い方をしましたが、別の言い方として、大口径レンズと呼ぶ場合もあります。

レンズにやってくる光の面積当たりの強さは、その時の状況によって決まっていますから、レンズのより広い面積で光を捉え、その光を精密に集束させれば、イメージセンサーに多くの光を集める事ができます。そう言う意味で、大口径なレンズというのは、明るいレンズと同じ意味になります。

さてこの明るいレンズを使えば、イメージセンサーの感度を落として撮影し、ノイズリダクションの影響を少なくする事ができます。また、光の量に余裕があれば、シャッター速度を少し早くして、ドラムスティック先端がブレて見えような現象を改善する事もできます。

(4) 安くて良いレンズ

明るいレンズを探すと、殆どが単焦点レンズになると思います。レンズの口径を大きくすると広い範囲の光を正確に集めるため、高い精度が必要になってきます。ズームレンズでこの精度を求めると、かなり高価になりますので、最初は単焦点レンズを探すのが良いでしょう。

単焦点レンズの中には、各メーカーがカメラファンを増やすために、意図的に安く提供しているものがあります。「撒き餌レンズ」なんて呼ばれますが、そういうレンズを使うのが良い方法です。


6. おわりに

まあ、画質を追求すると、どうしても良いカメラとレンズが欲しくなってきます。現実に高価なカメラやレンズが売られていて、それを買う人が居る事を考えれば、当然の結論なのかもしれません。

しかし、限られた予算で少しでも良い画質を得ようと思ったら、工夫できる部分もあると思います。全体的に見て、現状のリアルタイム配信の画質は、決して良いとは言えませんが、そういうレベルであるからこそ、コストパフォーマンスの良い機材が活躍できる場面も残っていそうです。

私の使っている中古のGX7MK2も、まだまだ活躍してくれるものと思います。

次回は、配信のオペレーションについて書いてみたいと思います。ビデオスイッチャーや、ビデオカメラのオペレータを常時確保できるお店は良いのですが、そういうお店は特別だろうと思います。実際は、お料理や飲み物をサービスしながら、ワンマンで配信も行うようなケースも多くなると思いますので、そういう環境で、どんなオペレーションができるのか、考えてみたいと思います。


この記事が気に入ったらサポートをしてみませんか?