一画素あたりの面積は以前ほど重要ではなくなっていると思う

デジカメに使われるCCDが10万画素とか30万画素だった時代には、画素数が大きければ大きいほど高画質というのが事実だった。あるときから同じ撮像素子面積で画素数が大きすぎると画質が落ちるという状況になった。理由は撮像素子の周囲にある信号転送回路の面積が、画素数が大きくなればなるほど増えることで撮像素子全体の面積に対する受光部分の面積の比率が低下してしまうということだと説明されたし、多分それは正しかった。


ところがソニーが8月に発表したExmor RSでは信号転送回路は受光部と積層されて作られる。パナソニックのSmartFSIでは回路の手前部分に光を反射する材料を配置して、さらにそこからフォトダイオードまでの間に光道波路という高屈折率の材料を置いて光をフォトダイオードに誘導している。つまりこれらの撮像素子では、回路が配置されている箇所に当たった光も受光素子が受光できるので、従来の説明での画素数が多ければ受光面積が小さくなって画質低下のロジックは単純には成り立たなくなると思う。


今後は受光部分の面積が同じだったら1画素が細かいほうが偽色が小さくなるしノイズもバラけるので同じピクセル数の画像を生成するときには綺麗な結果が得られるようになるんじゃないかという気もする。ダイナミックレンジが減るので微妙かもしれないが。単純に1画素が大きい/小さいから高画質とは判断できなくなっていく感じ。