体重67.4キロ体脂肪率24%
少しは落ち着いたようだ。
イメージセンサに関して幾つかの考え事をしていた。もちろん水平色分解と垂直色分解のメリットとデメリット。フジが作っているスーパーハニカムも含めて。
水平色分解方式はもっとも一般的だが、偽色とモアレが発生する。そのためにローパスフィルターは欠かせない。これはスーパーハニカムも同じことだ。ただ、スーパーハニカムは通常の水平色分解では現在の施術では達成できないダイナミックレンジの広さを明るい側のセンサを追加することで達成している。もともとシャドウ側のノイズを上手に抑えているのでかなりの実力だ。それでもローパスフィルターを持っている事で今一つ鮮鋭度にかける。
垂直色分解方式は現在製品化されているのがシグマのSD9…もうすぐSD14が出てくるが、これだけだ。全てのピクセルがRGBの実情報を持っているため、その端正な情報は200%以上の拡大に柔軟に対応する。おまけにモアレの発生率が少ないため、ローパスフィルターが不要だ。レンズとイメージセンサの間には少しでも障害物が少ない方がもちろんいい絵を取り込むことが出来る。
しかし、問題はダイナミックレンジ。各センサを通過しながら記録するため、光のロスが今のところ大きい。(フジフィルムがその問題を解決しようとしているという情報は新聞で読んだが)ダイナミックレンジが異様に狭く、十分な光量と適正な露出が要求され、普段の作品作りに使用できるものではない。(スタジオにおいてはかなりの良好なデータの取り込みを行える。)
現在の技術では、どちらもある程度の我慢を強いられるわけだ。
で考えてみたのがRBGB配列だ。
もっとも暗く、情報の少ないBチャンネルを2倍にしてアナログ状態でバランスを取リ、AD変換する。これでブルーのフィルターをもう少しまともなものに出来るだろう。ただこれだけでは輝度情報が格段に低くなるのは目に見えている。そこでRBGBの各チャンネルの色情報をキャンセルし、輝度情報(つまり、フィルタリングされない状態の600万画素であればまさしく600万画素のモノクロ画像)を取り込んだデータから別に生成する。デジタルだから取り込んだあとの電荷情報をコピーしたってなんの劣化も起こらないだろう。
最後にこの情報を合成して完成。感度とダイナミックレンジ、鮮鋭度を現在の技術でかなりのところまで引き上げられるに違いない。
ただし、計算量は現在の倍になる。ASICの能力向上が仮題だが、それは多分大きな問題ではないとおもう。この方法論、垂直分解方式が普及するまでの橋渡しかも知れないが、魅力が有るよう思える。
もっともこんなことはすでに研究段階で誰もが考えているのだろう。ただしそれが否決されたのが現在の技術の高みに達する前であったとしたらば、再考の余地はあるのではないだろうか?