たまたまBS231の放送大学テレビで『情報理論とデジタル表現』「第14回 動画の符号化」を放送しており、なんとなく見ていたら"動画の圧縮符号化方式"について説明していた。
言葉だけは知っている「フレーム間差分」「動き補償予測」「MPEG圧縮符号化処理」等AudioVisual視聴の重要な概念を教えてくれるので講義を真面目に視聴した。
「MPEG-1の符号化処理」のブロック図では[フレーム間予測][動き補償]が特徴と説明されていたが、[DCT(離散コサイン変換)]については前の講義で説明したJPEGと同等の符号化処理と説明されていた。残念ながらこの講義は見逃している。
AIチャットに[DCT]について教えてもらうと、映像信号を時間領域から周波数領域に変換し、低周波成分は画像のエッジや輪郭などの重要な部分を構成しているので高精度で圧縮し、高周波成分は映像の細部を構成しているので適切に圧縮することでデータ量を小さくするとのことだ。
講義ではMPEG-1を構成するフレームについて[Iピクチャ][Pピクチャ][Bピクチャ]の内容も解説していた。[Iピクチャ]を基に他のピクチャを復元するので重要なフレームと言う。
参考:情報理論とデジタル表現(’19)
https://bangumi.ouj.ac.jp/v4/bslife/detail/175004613.html
講義後半では放送事業で「動画の符号化」が実際にどう行われているか話を聞きにNHK放送技術研究所を訪ねている。"1920×1080ピクセルまでの解像度をサポート"しているMPEG-2で地デジは放送されていることやHEVC/H.265規格策定時に8Kサポートを働きかけた経緯も語られた。
8K放送テスト時には8K放送データをリアルタイムで処理出来るHEVC LSIが無かったので8Kデータを4分割し4K HEVC LSI 4器で処理した。この時境界歪が目立たぬよう4器でデータを共有し平行処理したという苦労話が興味深い。
設置されていた大きな8Kエンコーダーとデコーダーはイベント会場で見掛けた記憶がある。こうして18/12/01(土)10時にBS4K・BS8K放送が始まった訳だ。
日頃楽しんでいるテレビ放送やBD,UHD BDの技術的な手法や開発苦労を知れば一層深く楽しむことが出来る。実に役立つ講義だ。