見出し画像

DICOMと動画

お気に入りのビデオをDICOMで保存して、PACSで再生してみませんか?

同じ作業の繰り返しで疲れた心を、希望と勇気で元気づけるために、検査室でこっそり、スパイダーマンでも、高精細モニタを使って、PACSで鑑賞しましょう(ガントリと向き合えば、RCSの軸もばっちり覚えられる)。

脱線する前に、話を戻して基本的なことを見てみましょう。

DICOMの動画対応

初期のDICOMではビデオフォーマットはサポートされておらず、画像は静止画であることが前提でした。しかし、DICOMでビデオを扱う必要性は、超音波診断装置で認識されました。

超音波画像診断では、Cineループと呼ばれる短いビデオクリップが、心臓の鼓動、赤ちゃんの動き、血流などを記録するために使用されます。ほとんどの人が一度は見たことがある?のではないでしょうか。

DICOMは、このようなビデオクリップに対応するために、明治時代の映画と同じように、「動画とは静止画の連続に他ならない」という考え方を応用しました。それが、マルチフレーム画像です。

DICOMは、マルチフレーム画像をサポートするために、画像フォーマットをわずかに拡張しました。動画を1つのDICOMオブジェクトにまとめるために、動画を構成する静止画フレーム群をFragment(静止画の束)として扱い、このFragmentをシーケンスにすることにしたのです。

また再生に必要となる、(0018,1063)フレームタイムや(0018,0040)シネレートなどの動画に関するパラメータは、動画の再生を保証するために動画シーケンスと一緒に記録されることになったのです。つまり、エンコードされた動画は、従来から静止画が格納されてきたPixelData属性に格納することになったというわけです。

このようにすることで、DICOMのビデオ対応において、新たなオブジェクトの種類や定義が増えることはありませんでした。

DICOMワークステーションでは、DICOMオブジェクト内に保存されたビデオを適宜再生できなければなりませんが、多くのソフトウェアは、指定された再生速度で保存された動画クリップ(Fragment)のシーケンスを画面に表示することができるでしょう。

動画の画像圧縮

データサイズを小さくするために、保存される各静止画フレームは、画像の可逆/非可逆圧縮にも対応できるようになりました。

実際、超音波画像はマルチフレームDICOMオブジェクトを磨き上げるうえで理想的なエンティティ(現実世界の概念をDICOMの世界で扱うための概念)となっています。Cineループ、画像解像度、音、画像フレームを抽出して処理する機能、これらすべてが実用的な規格を定義するために重要な要素だったということです。

マルチフレーム画像で問題なのは、読み込み時間です。各画像フレームをデータストリームから抽出する(圧縮されていればそこからさらに解凍(伸長)する)必要があるため、かなりの時間とメモリを消費してしまいます。

しかし、コンピュータの処理能力が向上してきたため、最近では問題なく使えているのではないでしょうか。

過去数年の間に、DICOMにおけるビデオアプリケーションの状況は急速に変化し始めています。 内視鏡やビデオカメラなどの可視光モダリティ(Visible Light ; VL)が登場してきたためです(PS 3.3 Visible Light IOD 参照)。超音波を凌駕する画質で、長時間の動画撮影が可能になっています。先生たちは大忙しですね。

静止画フレームとは別に、音声も、生理的な音や医師のコメントを記録するために重要となってきました。音声を記録しない古典的なマルチフレームフォーマットは、超音波検査ではよく使用されますが、音が重要になる検査では、静止画コマ送りだけでは限界があります。

そのため、MPEG2のような映像に特化したフォーマットが必要になったのです。スマホやデジタルビデオ、パソコンなど、私たちは日常的にMPEG形式の動画に慣れ親しんでいます。

MPEG2は、動画のフレームを独立して圧縮・保存する"だけ"ではなく、そこからさらに、連続する2フレーム間の差分のみを圧縮・保存するため、データ量を大幅に削減します。基本的に非可逆圧縮です。ほとんどの場合、連続したビデオフレーム間では画像の背景はほとんど変わらないため、圧縮の効率が高まるのです。

MPEG2は、JPEGやPDFと同様に、DIOCMのオブジェクトが適応するデータフォーマットのひとつとなっています。今では広く使われている方法といってもいいでしょう。

現在、DICOMにサポートされているビデオフォーマットは次のものです。

各フォーマットへのカラーフォーマットの対応(Photometric Interpretation)は次の通りです。

  • RGB:非圧縮またはロスレス圧縮の Transfer Syntaxes(色空間変換が定義されていない場合)

  • YBR_ICT:非可逆 JPEG 2000 Transfer Syntaxes

  • YBR_RCT:可逆 JPEG 2000 Transfer Syntaxes

  • YBR_PARTIAL_420:MPEG2, MPEG-4 AVC/H.264, HEVC/H.265 Transfer Syntaxes

  • YBR_FULL_422:非可逆 JPEG Transfer Syntaxes

  • YBR_FULL または RGB:RLE Transfer Syntaxes

マルチフレームDICOMオブジェクトは、複数のビデオクリップを保存できます。その際、各クリップは、Fragmentという単位でまとめられます。クリップのサイズの上限は ( 2^32 ) - 2 byte に制限されています。これは、Fragmentとして動画クリップをまとめる際に、Itemタグでデータの仕切りを作るのですが、Itemタグが記録できるデータ長の上限が4 byteであることに起因します(あーなるほど)。動画クリップがこのサイズに収まらない場合は、複数のFragmentに分割する必要があります。

MPEG形式の音声や録音データは、MPEGデータストリームの一部として、一般的なビデオと同様にサポートされます。

MPEG2のほかに、MPEG4やHEVCもあります。MPEG4はMPEG2と比べて約2倍の圧縮性能を持つ方法です。そこまで画質を必要としないWeb上での閲覧など、軽いデータでのやり取りで活躍しているようです。さらに、MPEG4の後続がHEVCです。スマホの動画などでは標準になりつつあるビデオフォーマットです。こちらも、比較的、低い画素数の動画で使われる圧縮方式ですがMPEG4よりもさらに約2倍圧縮性能がよい(MPEG2との比較では約4倍)とされています。

最後に、マルチフレームを使用する歴史あるモダリティであるにも関わらず、ビデオストレージがないことがあるものを紹介しておきます。

例えば、デジタル・アンギオグラフィ(DA)です。

DAは、造影剤を用いて、血流を可視化するための検査や手術で利用されます。取得される画像はX線透過画像です。この画像は、高解像度で、MPEG形式や古典的なJPEGでは扱えない 16 ビットのグレースケール画像です。そのため、画像シーケンスは効率的にビデオ形式にエンコードすることができず(できないことになっている、あるいは、できないままにしている)、マルチフレームDICOMとして保存され、多くの場合、画像圧縮も行われないままになっています。その結果、ハリウッド映画に匹敵するような巨大なサイズのDICOMオブジェクトが生成されることがあります(数GBオーダー)。

医師:「なぜ私のワークステーションは、DAデータのロードに時間がかかるのかなあ。再生に時間がかかってるのかなあ。パソコン古いからかなあ。すげーいいパソコンなんだけど。」
技師:「さあ、なんででしょうね~(飄々と)」


Stay Visionary


この記事が気に入ったらサポートをしてみませんか?