影像传感器固态影像传感
固态影像传感器( solid state image sensors)技术起源于20世纪60年代末,它通过将光子转换为电荷并记录在存储介质中以实现数字图像的获取( SHORTISet al,1996)。当前应用的固态影像传感器类型主要有CCD、CMOS、JFETLBCAST、Foveon X3、Live MOS等,其中应用最多的是CCD和CMOS传感器。[1]
影像传感器传感器结构
除了起感光作用的光电管以外,影像传感器还包括一系列的其他构件为了更好地利用光线。在每一像素前都装有微透镜,该透镜起到“捆绑”光束的作用。微透镜能够减少边缘光的损失。不同于传统胶片,影像传感器的光电二极管难以对倾斜射入的边缘光束加以利用,照片四周较暗。微透镜能使传感器边角处的光线也能垂直射入单个的光电管。
单个光电管只能记录亮度值,也就是说,光电管是“色盲”。为了拍出彩色照片,在光电二极管的前一层加装了红、绿、蓝三原色滤色镜。
拜耳滤镜中,各滤镜之间的比例关系为红25%、蓝25%、绿50%。电脑屏幕上的所有色彩都是由这三种色彩按照不同比例混合而成的。如果三种色彩全部记录下光量,像素显示为白色。反之,如果三原色什么都没记录下来,像素显示为黑色。红、绿、蓝三种色彩相互叠加得到的各种色彩,涵盖了人眼视力所能感知的所有色彩。绿色之所以占到一半,是因为人眼对绿色更加敏感。[2]
传感器前装有一系列滤镜,用于消除不想要的效果。基本上每台数码相机都装有低通滤镜低通滤镜加装在相机的传感器前,允许低频光线通过,阻挡高频光线。低通滤镜的作用在于减弱摩尔纹。磨尔纹是一种因数码相机的感光元件受到高频干扰,而在图像上出现的彩色的、形状不规律的干涉条纹。如果数码相机感光元件的空间频率与被摄对象的空间频率接近,就会产生摩尔纹。如果镜头的分辨率小于感光元件的空间频率,影像中就不会出现与感光元件空间频率相近的条纹,也就不会产生摩尔纹。但是,目前的技术水平有限,只能靠加入低通滤镜来减弱摩尔纹。然而,低通滤镜有一弊端,那就是它会大大降低相机的成像锐度,影响画质。
影像传感器传感器分类
一般分为以下两大类:
1、电荷藕合组件图像传感器 CCD(Charge Coupled Device)。CCD 是半导体组件,于 1970 年由美国贝尔 (Bell) 实验室发明。 CCD 其实是一组可以进行"光电转换"的光电体,当光通过镜头聚焦形成影像后,CCD便会将影像的光讯号转换为电讯号(电压)。光量愈大,释放出的电子数量愈多,电讯号亦愈强,像素的显示则会愈亮。在 CCD 上组成画面的最小单位被称为像素,每个光电体亦即等于一个像素。每块 CCD 所含像素的数目与大小都与影像质素有着直接关系。像素愈高,输出的影像质素便愈高。
2、互补性氧化金属半导体CMOS(Complementary Metal-Oxide Semiconductor),和 CCD 一样同为在数码相机中可记录光线变化的半导体。CMOS 的制造技术和一般计算机芯片没什么差别,主要是利用硅和锗这两种元素所做成的半导体,使其在 CMOS 上共存着带N(带–电) 和 P(带+电)级的半导体,这两个互补效应所产生的电流即可被处理芯片纪录和解读成影像。[3]
影像传感器性能差异
像敏单元以及数据处理和传送方式的不同导致CCD和CMOS传感器在性能上有所差异,主要体现在以下几方面:
1、CCD像敏单元中没有信号放大装置,感光二极管可以占据像敏单元表面较大的面积(开口率)。因此,CCD的光利用效率、动态范围以及感光度等性能都优于CMOS。同时,由于像敏单元可以做得很小,在相同面积上CCD能够排列更多的像敏单元,其分辨率也高于CMOS。
2、CCD中不同像敏单元输出的电信号进行统一放大,其噪声低于CMOS。另一方面,由于CMOS中各像敏单元单独对其信号进行放大,很难保证所有放大器放大倍数的一致性,故更易导致像素响应的不均匀性。
3、CCD需要外加电压才能使电荷移动,并且不同的垂直寄存器需要的电压不一样,要用专用的电源管理电路。因此,CCD的功耗比同尺寸的CMOS高。
4、CCD需要使用专门的制造设备,而且一个单元的损坏会造成整列报废,因而其成品率低,生产成本和技术门槛较高。CMOS传感器采用一般半导体电路的CMOS工艺,技术相对成熟,制造成本较低,更易于普及。[1]
总体而言,CCD的成像性能优于CMOS。因此,在摄影测量领域应尽可能地采用基于CCD传感器的数码相机。