Understanding CMOS Image Sensor(一)
扫描二维码
随时随地手机看文章
转自知乎Camera技术专家 刘斯宁
链接:https://zhuanlan.zhihu.com/p/100777121
前言
摄像机用来成像的感光元件叫做image sensor或imager。CMOS Image Sensor (CIS) 最早是美国喷气推进实验室(Jet Propulsion Laboratory, JPL)的一个研究项目,Dr. Eric Fossum 是业界公认的CIS技术发明人。1992年,Dr. Eric R. Fossum 在美国加州Pasadena(帕萨迪纳)的喷气推进实验室工作,负责NASA一些雄心勃勃的太空探测器的建造和运行。那一年NASA向员工们发出了一个颇为有趣的要求 ——“更快,更好,更便宜”。作为JPL图像传感器研究的负责人,Fossum 负责重新发明NASA太空船上的巨型相机。当时在数码摄影市场上已经应用了CCD技术,但是CCD需要消耗大量的能量和相当多的支持芯片。Fossum 团队发现,如果能够消除在成像阵列中反复转移电荷的需要,那么这两个问题都将解决,于是就诞生了CMOS有源像素传感器。下图是JPL 首个CMOS APS 芯片,只有28x28个像素,像素尺寸40umx40um,诞生于1993年4月。APS 是Active Pixel Sensor (主动像素传感器)的缩写。CMOS sensor 的本质是自带像素的相机芯片("camera-on-chip"),每个像素都可以进行自己的电荷转换,从而显着减少产生图像所需要的能量和支持电路。此外,CMOS传感器采用与大多数微处理器和存储器芯片相同的材料和技术制造,使其更容易制造并且最具成本效益。CMOS的确“更快,更好,更便宜”,但是NASA的反响却并不乐观。Fossum 说“人们完全投入了CCD阵营,不相信这可以做到,甚至都没兴趣听一听。”但是Fossum 不是一个轻易屈服的人,在四处寻求投资无果之后,1995年Fossum 和他的妻子以及一位JPL同事Sabrina Kemeny 用自有资金创办了Photobit 公司。一年后Fossum 离开了JPL全职加入Photobit,并邀请到了Georgia Tech 新博士毕业生Dr. Michael Kaplinsky 也加入Photobit 继续推进CMOS sensor 设计,这样一干就是5年,其中的艰辛想必也是不堪回首。最终Photobit 于2001年被美光半导体(Micron Technology)收购,成为了美光的CMOS业务部门,Michael 担任美光SoC Group 经理,主导了MT2000 (200万像素CMOS sensor)和的后续300万、500万像素sensor的开发并取得了商业成功。在美光收购之前的2000年,Fossum 邀请了另一位高人Dr. Junichi Nakamura 加入了Photobit。Dr. Nakamura 毕业于东京大学,在奥林巴斯从事光学工作,并于1993~1996年间在JPL 做访问学者参与CMOS sensor 的设计开发。这位仁兄后来去了日本美光,并出版了一本非常不错的专著,建议从事camera 行业的同仁都该买一本惠存。2003年Dr. Michael Kaplinsky和一位美光同事Dr. Vladimir Berezin 预见到高清CMOS sensor 的时代已经到来,他们必须做点什么,于是他们成立了Arecont Vision公司开始开发高清安防摄像机,Dr. Berezin 拿出了自己大部分积蓄,而Dr. Kaplinsky 向银行抵押了自己的唯一住房以换取40万美金的创业贷款,当这笔钱还剩下4000块的时候,Kaplinsky 和 Berezin 需要决定公司是准备两个月后关门,还是用这笔钱去Las Vegas参加世界安防展,去那里碰碰运气找找客户,如果找不到也就认命了。显然Kaplinsky 和Berezin 赌对了,在经历了种种磨难之后终于通过展会找到了第一笔订单,公司也迎来了转机和接下来蒸蒸日上的发展。Kaplinsky 于2006年底邀请到了Purdue 新毕业生Mr Sining Liu(也就是笔者)加入Arecont Vision 从事CMOS高清摄像机的开发,使笔者有机会亲身历证了世界安防行业的繁荣伴随着中国安防的崛起和外企的逐渐衰落。在曾经属于AV 的时代,笔者交付的camera 跟随米军部署在伊拉克战场最前线,跟随SpaceX Dragon 货运飞船进入了太空,也曾在东方大国的国庆阅兵仪式中默默服役。由于发展理念上的分歧,Fossum 后来离开了美光,携巨款去南加州大学过起了安稳的教授生活,凭借历史上的贡献还能时不时获个伊丽莎白女王奖。美光的Pasadena office最终全部关闭,其CMOS部门于2008年独立出来成为了Aptina,后来又在2014年被ON Semiconductor 收购。美光的Pasadena office关闭后催生了一批camera相关的创业公司,有的做高速camera,有的做运动camera,有的做手机camera,有的做安防camera,虽然各有各的艰辛,但也各有各的乐趣。Pasadena是一个特别美丽的城市,笔者周末开车闲逛时也会经常路过JPL,总会想起这段历史。。。P.S. 据史料记载,1936年时,加州理工大学的五个学生在宿舍里制作火箭燃料,结果发生了爆炸,把宿舍墙炸出了一个洞。令人不可思议的是,学校竟然没有收缴他们的作案工具,而是把他们赶到了郊外的一块河谷上让他们在那里继续做实验,于是他们就用学校的资助在河谷上建了一个火箭实验基地,这就是JPL的前身。那五个学生中就有“中国导弹之父”钱学森。
1 CMOS Sensor 原理
1.1 简介CMOS 是英文Complementary Metal Oxide Semicondutor 的缩写,这是一种主流的半导体工艺,具有功耗低、速度快的优点,被广泛地用于制造CPU、存储器和各种数字逻辑芯片。基于CMOS 工艺设计的图像传感器叫做CMOS Image Sensor (CIS),与通用的半导体工艺尤其是存储器工艺相似度达到90%以上。CMOS技术的主要特点是成对地使用PMOS和NMOS两种晶体管,PMOS负责拉高,NMOS负责拉低,两者配合可以实现数字信号的快速切换,这就是Complementary的具体含义。下图以最基本的反相器为例说明了CMOS技术的基本原理。传统的 CMOS 数字电路使用'0'和'1'两种逻辑电压控制晶体管的Gate从而控制晶体管的电流流动,CMOS sensor 则是让光子直接进入晶体管内部生成电流,光信号的强弱直接决定了电流的大小。这是CMOS sensor与CMOS 数字逻辑的主要区别之处。CMOS sensor 通常由像敏单元阵列、行驱动器、列驱动器、时序控制逻辑、AD转换器、数据总线输出接口、控制接口等几部分组成。这几部分功能通常都被集成在同一块硅片上,其工作过程一般可分为复位、光电转换、积分、读出几部分,如下所示。英文中的camera 实际上包含了两类产品,一种是以拍摄静态图片为主的digital still camera,中文叫做相机,比如各种单反相机和微单类产品。另一类是以拍摄连续视频为主的video camera,中文叫做摄像机,比如各种安防监控摄像头(video surveillance camera/CCTV security camera),运动DV,家用camcorder,以及录制影视节目用的电影摄像机(cinema camera)。
用于手机的camera则有一点特别,拍照和拍视频两种功能使用都比较频繁。
行车记录仪和流媒体后视镜属于车载camera产品,也是近年来增长比较快的市场。
在所有这些camera 产品中,CMOS sensor 是当之无愧的核心元件,它位于镜头和图像信号处理器(ISP)之间,把光信号转换成ISP能够处理的数字信号(电信号)。CMOS sensor 与镜头、ISP一起构成了camera 的灵魂,决定了camera 的核心价值。
当人们选购camera产品时,可能第一关注的就是分辨率指标,这个指标也是很多普通消费者唯一能够理解的技术指标。比如某手机支持1200万像素摄像头,它背后的意义是该手机可能使用SONY IMX378 sensor,该sensor在抓拍静态照片时输出分辨率为4056x3040的完整尺寸图像,而拍照之前的预览视频则一般默认是1920x1080的FHD高清图像。有些眼尖的读者已经注意到这个问题了,为什么抓拍和预览时图像分辨率会不同?原因并不复杂,第一是省电,处理1200万像素的预览视频消耗的能量基本上是200万像素的6倍,手机的电量会迅速耗光;第二是成本,能够处理1200万像素预览视频的ISP复杂度更高,芯片面积更大,价格也更贵。第三是没有必要,因为手机屏幕的主流才刚刚达到200万像素,更高的分辨率没有实际意义。基于以上原因,手机在抓拍和预览时需要进行模式切换,而每次切换模式需要为sensor和ISP重新配置大量的寄存器参数,一般会有2万个左右,所以在切换瞬间预览视频会短暂黑屏,而实际抓拍到的图像与预览图像会存在一个明显的时间延迟。这个延迟会给用户造成不少困扰,比如会使家长们在抓拍小孩的表情时遇到一定的技术困难,会错过很多生活中的精彩瞬间。在印刷行业中,描述一幅图像的质量通常会使用“像素密度”的概念,一种常用的定义是PPI(pixel per inch)或DPI(dot per inch),即每英寸长度上(1in=25.4mm)打印多少个像素点。Photoshop软件中默认的标准像素密度是72dpi,高质量标准是300dpi。下面的例子说明了不同像素密度对应的图像质量效果。一张A4 纸的尺寸是210mm×297mm,即8.27inx11.69in。当以72dpi质量打印图像时,图像的分辨率至少需要是595×842, 当以300dpi质量打印时,图像的分辨率至少需要是2480×3508。在我国一般采用国际单位体系,因此像素密度通常用PPM(pixels per meter)单位。在安防行业中,人们一般将图像质量从高到低分为5个等级,每个等级可以满足一定的应用需求,即
- Identification:图像质量优秀,图像中提供了充足的细节,可以完全确定目标的身份,并排除其它可能性
- Recognition: 图像质量良好,图像提供的细节足以断定图像中的目标是否与真实人物(或参考照片)属于同一人物
- Classification:图像质量一般,图像提供的细节仅能帮助分辨体貌特征,如男女、高矮、颜色等,但不能断定全部细节
- Detection:图像质量差,仅能勉强分辨图像中是否存在关注的目标
- Useless:图像质量太差,不能说明任何问题
1.2 光电转换目前大部分的sensor都是以硅为感光材料制造的,硅材料的光谱响应如下图所示。从图中可以看到,硅材料的光谱响应在波长1000nm的红外光附近达到峰值,在400nm的蓝光处只有峰值的15%左右,因此硅材料用于蓝光检测其实不算特别理想。在实际CIS产品中,特别是在暗光环境下,蓝色像素往往贡献了主要的噪声来源,成为影响图像质量的主要因素。从上图中可以看到,裸硅在可见光波段的光电转换效率大约是峰值的20%~60%,与入射光的波长有关。Sensor感光的基本单元叫做“像点”,英文是photosite,每个sensor上承载了几百万甚至更多的像点,它们整齐、规律地排成一个阵列,构成sensor的像敏区。当可见光通过镜头入射到像点并被光敏区吸收后会有一定概率激发出电子,这个过程叫做光电转换,如下图所示。光子激发出电子的概率也称为量子效率,由光激发产生的电子叫做光生电子或光电子。光子激发出电子会被像点下方的电场捕获并囚禁起来备用,如下图所示。这个电场的专业名称叫做“势阱”,后面会有专门讨论。
像点的作用可以类比成一个盛水的小桶,它可以在一定范围内记录其捕获的光电子数,如果入射的光子太少则可能什么都记录不到,如果入射的光子太多则只能记录其所能容纳的最大值,多余的光电子由于无处安置只能就地释放,就像水桶盛满之后再继续接水就会溢出一样。溢出的自由电子会被专门的机制捕获并排空。像点曝光的过程,非常类似下图所示的用很多小桶接雨水的过程。
1.3 像点微观结构一个像点的解剖结构如下图所示。从图中可以看到,一个像点主要由五部分功能构成
- 硅感光区,捕获光子,激发光生电子
- 势阱,用电场捕获、存储光生电子
- 电路,将电荷数量变换为电压信号,以及复位、选择、读出逻辑
- 滤光膜,选择性透过三种波长中的一种
- 微透镜,将入射光线会聚到感光区
1.4 Bayer Filter为了能够区分颜色,人们在硅感光区上面设计了一层滤光膜,每个像素上方的滤光膜可以透过红、绿、蓝三种波长中的一种,而过滤掉另外两种,如下图所示。
像点之所以叫像点而不叫像素正式因为这了原因,一个严格意义上的像素,即pixel,是一个具备红、绿、蓝三个颜色分量的组合体,能够表达RGB空间中的一个点。而sensor上的一个像点只能表达三种颜色中的一个,所以在sensor范畴内并不存在严格意义上的像素概念。但是很多情况下人们并不刻意区分像素和像点在概念上的差别,经常会用像素来指代像点,一般也不会引起歧义。所有的像点按照一定格式紧密排成一个阵列,构成sensor的像敏区,即color imaging array。像点阵列的微观效果如下图所示。其中感光膜的布局叫做Bayer Mosaic Color Filter Arrary,通常简写为Bayer CFA或CFA。早期的工艺微透镜之间是存在无效区域的,为了提高光能量的利用率,人们会努力扩大微透镜的有效面积,最终实现了无缝的透镜的阵列。
索尼的Power HAD CCD 技术在Hyper HAD 技术基础上缩小了微透镜间距,进一步提升了像素感光能力。
Bayer格式图片是伊士曼·柯达公司科学家Bryce Bayer发明的,拜耳阵列被广泛运用与数字图像处理领域。不同的sensor可能设计成不同的布局方式,下面是几种常见的布局下面是光线通过微透镜和Bayer阵列会聚到硅势阱激发出光生电子这一物理过程的示意图。需要说明的是光生电子本身是没有颜色概念的,此图中把电子的颜色只是为了说明该电子与所属像点的关系。Bayer格式的数据一般称为RAW格式,需要用一定的算法变换成人们熟悉的RGB格式。从RAW 数据计算RGB 数据的过程在数学上是一种不适定问题(ill-posed problem),理论上有无穷多种方法,因此与其说是一种科学,不如说是一种艺术。下面介绍一种最简单的方法。这个方法考虑3x3范围内的9个像素,为简单起见只考虑两种情形,即中心像素为红色和绿色,其它情形同理。
上述过程常称为Bayer Demosaic,或者Debayer,经过此操作之后,每个像素就包含了3个完整的颜色分量,如下图所示。
上述各种Bayer格式的共同特点是接受一种颜色而拒绝两种颜色,因此理论上可以近似认为光能量损失了2/3,这是非常可惜的。为了提高光能量的利用率,人们提出了RYYB的pattern,这是基于CMY三基色的CFA pattern,Cyan是青色(Red的补色),Magenta是品红(Green的补色),Yellow是黄色(Blue的补色)。目前这种特殊的Bayer pattern已经在华为P30系列和荣耀20手机上实现了量产。据华为终端手机产品线总裁何刚透露,为了保证RYYB阵列在调色方面的准确性,华为付出了整整3年的时间。
1.5 成像与读出Sensor成像的过程可以比喻成用水桶接水的过程,如下图所示。在这个比喻中,雨水即相当于光子,每个水桶即相当于一个像点,水桶收集雨水的过程即相当于像点的曝光过程。当收集到合适数量的雨水后,会有专门的工序统计每一个水桶收集到多少雨水,然后将桶倒空,重新开始下一次收集。像点记录光信号以及信号读出的原理和计算机内存的工作原理非常相似。sensor 会使用一个行选信号(Row Select)和一个列选信号(Column Select)来选中一个存储单元(Pixel),被选中的存储单元与输出放大器联通,将其存储的电荷数转换成电压值输出到阵列外部。下图说明了这个过程。像素读出的基本过程是
- 每个像素内置一个电荷/电压放大器(Charge/Voltage Converter, CVC),将像素势阱中电荷的数量转换成电压信号
- 读出逻辑选中某一行,该行所有像素的电荷/电压放大器的输出信号与列输出信号联通
- 读出逻辑继续选中某一列,该列信号与可编程输出放大器(Output Amplifier)联通,被选中的像素的电压信号被放大一定倍数
- 放大后的电压信号经ADC转换器后变成数字信号,在sensor 内部经过一定的ISP处理,最后通过一定的接口协议(如MIPI)输出到外部
- 一个reset 信号负责将某一行像素清零,使其从零开始积累电荷
- 一个read 信号负责选择某一行,导致该行被读出
下图显示了一个像素的曝光过程。
- 一个曝光过程从RESET开始,RESET信号保持一段时间后像素清零,恢复高电压
- 像素自由积分,时间取决于用户设置的曝光时间
- 像素采样,准备读出
Rolling shutter 在空间和时间上的关系如下图所示。
显然,sensor read 信号与 reset 信号之间的时间间隔就是每个像素能够积累光信号的时间,也就是人们所熟知的“曝光时间(exposure time)”,在技术领域则更多会使用“积分时间(integration time)”这个术语,它一般是以行为单位的一个量,能够精确地反映像素曝光过程的物理本质和实现原理。熟悉摄影的人都会知道,如果被拍摄的物体在相对摄像机运动,则需要使用比较短的曝光时间,否则画面就会出现运动模糊,这是因为在曝光过程中物体不断从一个像素位置转移到另一个像素位置,物体运动速度越快,运动模糊越严重,如下图所示。
在下图的例子中,由于弹琴的手在不停地移动位置,所以在很多像素上都会留下一点曝光的痕迹,却没有任何一个像素上停留足够久的时间。
以拍摄人物为例,当在画面中以正常速度步行时,如果曝光时间大于1/30秒(约30ms)则画面就开始出现运动模糊,下图给出了一组经验值,用于参考绝对曝光时间和运动模糊的关系。在智能交通(ITS)领域,普通城市路面监控一般要求曝光时间短于1/60s,否则拍到的车牌就开始模糊,如果曝光时间更长则夜间的车灯就会出现明显的拖尾现象,如下图所示。如果拍摄对象是鸟类这种动若脱兔的目标,则曝光时间不能超过1/125s(<10ms),否则很容易出现运动模糊。当然,摄影技术中还存在一个专门的分支叫做高速摄影和超高速摄影,通常用于捕捉高速飞行的子弹,或者火箭发动机点火的过程,此时曝光时间需要锁定在微秒甚至纳秒级别。
1.7 Rolling shutter 效应卷帘曝光的最显著特点是每一行像素开始曝光的时间点是不同的,是与像素位置有关的的函数。当画面中存在运动的物体时,物体在曝光过程中空间位置在不断变化,画面就发生变形,物体速度越快,变形就越严重。下面的动画可以很好地说明这种效果的成因。形成原因
这种形变通常称为RS效应,或者“果冻效应”(Jello effect),指图像出现扭曲、倾斜等现象,仿佛进入了“时空扭曲”的世界一般。与rolling shutter 做对比的是CCD sensor 采用的全局快门 (global shutter),其特点是sensor 上所有像素是在同一瞬间全部开始曝光的,因此sensor 采集的是物体在同一时间点的画面。下图是两种曝光方式的对比。一般来说,RS效应存在三种表现形式,前两种属于画面畸变,合称果冻效应。
- 整体倾斜(skew),如下图车辆的例子
- 图像摇摆(wobble),如下图所示
- 部分闪光(partial flash),如下图所示
普通摄影闪光灯的闪光时间 通常只有几个毫秒,显著短于一帧图像的成像时间,因此只有一部分画面能够被闪光照亮。
微软研究院的Simon等人使用光流法追踪摇摆像素的运动矢量,从而对摇摆进行校正。针对手机拍摄的场景,斯坦福的Alexandre等人使用手机自带的加速度传感器提取camera的加速度信号用于补偿图像摆动。
1.8 积分时间 (integration time)用户在使用camera拍摄时需要根据场景特点决定所采用的曝光时间(exposure time),或者让camera 在设定范围内自动选择最合适的曝光时间,这时所涉及的曝光时间概念主要与拍摄场景有关,一般是以毫秒为单位计算的绝对时间,也是用户比较熟悉和容易理解的概念。而sensor 中用来控制曝光长短的寄存器参数称为积分时间,一般是以行为单位的,这个概念是源于sensor 的技术特性,一般不需要用户去理解。曝光时间和积分时间存在确定的换算关系。比如说int_t=159,指的是sensor reset 信号和read 信号之间的间隔为159行,而每行所占的绝对时间(line_time)与sensor 主频(pixel clock, PCLK)的和每一行包含多少像素(行长 )有关,具体公式是:line_time=h_size / pclk其中h_size 为行长,以PCLK 数为单位,1/pclk 为一个时钟周期,即扫描一个像素需要花费的绝对时间因此曝光时间与积分时间的换算公式如下:exposure time = int_t * line_time举例来说,假设一个1080p sensor PCLK=76MHz,每行配置成2000个PCLK(由有效像素和blanking组成),则有line_time = 2000 / 76MHz = 26.32 us如果某个场景需要10ms曝光时间,则sensor 积分时间应如下计算,int_t = 10000us / 26.32us = 379.9 (行)显然这个例子可以安全地将sensor 寄存器配置为380行,就能得到10ms的曝光时间。但是当 int_t < 2 时问题就会变得有些复杂。假设计算出的理想积分时间是1.5行,此时自动曝光算法就很容易产生振荡,不停在1行和2行之间切换而无法稳定在一个固定值。因此有些sensor 会支持分数行,可以帮助解决这个问题。
1.9 工频闪烁 (flicker)工频闪烁,通常发生在室内场景,曝光时间设置如果不是光源能量周期的整数倍,则图像不同位置处积累的信号强度不同,并呈周期性变化,这是单帧图像的情况。在视频序列上,如果满足一定条件,视频会出现条纹模式在垂直方向上缓慢移动。工频闪烁的形成原因与CMOS sensor rolling shutter的工作原理相关,并且受交流电的频率影响。对于同样的积分时间t,sensor不同位置处的像点开始积分时所处电信号的相位不同,所以同样时间t 内能够积累的光子数也不同。如下图所示。flicker 的本质是像素曝光起始点相对交流电的相位关系在不断变化。这个问题不仅存在于一帧图像内部,在帧与帧之间也存在同样的问题。以电频率50Hz为例,如果sensor 工作在25或50fps(frame per second),则帧频率刚好与电频率同步,每帧图像的flicker 表现(明暗位置)与上一帧完全相同,所以明暗条纹在视频上是静止不动的。如果sensor工作在30或60fps,则每帧的flicker与上一帧会产生固定的相移,视频上的明暗条纹图样会在画面垂直方向上缓慢移动。在室内,为了避免工频闪烁,曝光时间应设置为光源能量周期的整数倍。在中国,光源能量周期为10ms(交流电周期的1/2),在美国则为8.3ms,调整曝光时间时要特别注意这一点。
1.10 与CCD的对比CCD技术的发展起源于1960年代,在2000年以前曾是image sensor 的主流解决方案,下图对比了CCD和CMOS读出方式的主要区别。如图所示,CCD 器件通常只有一个电荷-电压转换器(Charge-Voltage Converter),当sensor读出像素数据时,每一行像素中积累的电荷需要在行电压的控制下一步步“蠕动”到下一行,直到最终抵达阵列所属的行缓冲(row buffer),然后开始在列电压的控制下继续一步步“蠕动”到阵列出口处的电荷-电压转换器,完成读出过程。
CCD的一个主要优点在于所有像素共享同一个电荷-电压转换器,所以像素一致性非常好。相比之下get="_blank">CMOS每个像素都有自己专用的电荷-电压转换器,一致性很不容易控制。当CCD像素数多于200万时,所有像素共用一个电荷-电压转换器会严重影响读出速度,所以此时会考虑把像素设计成两个或四个阵列,每个阵列配备专用的行缓冲和电荷-电压转换器,可以成倍加快读出速度。写到此处笔者回忆起一个沉痛的往事。笔者一好友曾试图对接某国产高端sensor,由于自己研发实力有限,便求助于北京的朋友空闲之余帮忙做做,结果不出意料地半年没什么结果。朋友有点着急了,付了50万研发费委托深圳本地的公司帮忙开发,该公司的主要业务是设计生产国产FPGA,接单的主要动力是推广自家的FPGA。sensor出图到是比较顺利,但是朋友很快发现国产FPGA 体积大功耗高,无法满足量产需求,于是朋友要求承接方提供源代码以迁移到X家FPGA,不料承接方以合同金额不包括源代码为由拒绝提供,于是50万瞬间沉没。万般无奈朋友只好雇人自己开发FPGA,如是就遇到了sensor四个阵列输出不同步的问题,厂家也讲不清楚四个阵列的输出时序到底该如何预测,好像是sensor想输出谁就输出谁,什么时候高兴什么时候输出。这就给FPGA设计增添了巨大的难度,朋友雇的年轻人无法应对如此巨大的技术挑战,坚持半年后离职,项目最终流产。
1.11 改进的曝光方式Interlaced 曝光为了改善rolling shutter 曝光方式存在的问题,有人提出了Interlaced 曝光和读出方式,如下图所示,新的曝光顺序将一帧拆分成8组,第一组包含行号 {0,8,16,24...},第二组包含行号 {1,9,17,25,...} ,以此类推,第八组包含行号 {7,15,23,31,....} 。这种曝光方式的优点是组与组之间的曝光延时为一帧时间的八分之一,以1080p@30fps 为例,一帧的读出时间大致在28ms左右,在新的曝光方式下像素间的最大曝光延时仅为3.5ms,可以更好地捕捉运动场景。
斩波曝光(chopped)在智能交通领域常会遇到拍摄交通信号灯的需求。大部分信号灯直接使用220V市电供电,因此会存在10ms的光能量周期(美国是110V,周期8.3ms)。偶尔也会有信号灯厂家偷工减料,使用半波整流器件将电频率的负半周过滤不用,这就导致信号灯每亮10ms之后就会熄灭10ms。虽然人眼看不出来,但sensor看的非常清楚。P.S. 遇到这种偷工减料的信号灯,一般可以要求业主更换信号灯供应商,并拉黑原供应商。由于信号灯存在10ms的明暗周期,当sensor曝光时间很短时,就会遇到某一帧图像里信号灯碰巧全都不亮的尴尬场景,如下图所示。一般在晴朗的夏天,sensor曝光时间可能会需要短于1ms才能保证画面不过曝,此时遇到信号灯近似熄灭的概率已接近50%。而在夜晚则曝光时间通常需要大于10ms,所以不会遇到信号熄灭的问题,相反会遇到信号灯光太强以致sensor过饱和,全部信号变成白灯的问题。
除了红绿灯之外,很多汽车上使用的LED大灯或者信号灯也是有频率的,而且平均点亮的时间(占空比,duty cycle)可能更短,如下图所示,这种情况sensor抓拍到LED(信号)灯熄灭的概率会更大。
为了缓解这个问题,有人提出了斩波曝光的工作模式,其原理是把正常曝光所需的曝光时间(比如1ms)分散到11ms的固定时间间隔内执行,通过多次短暂曝光的效果累加实现1ms等效曝光时间,且能保证采样到信号灯最亮的时刻,如下图所示。这种方法的好处是增大了捕捉到信号灯点亮的概率,但是由于捕捉的时间短,所以画面上信号灯的亮度会比正常的要弱。所以这种方法并没有完美解决问题,只是一种缓解(mitigation)的方法。
1.12 画幅中画幅的sensor典型尺寸为44或53mm宽,3千万~1亿像素。全画幅的sensor典型尺寸为35mm宽,和早期的电影胶片一样大,具有1千万~5千万像素不等。
APS-C sensor 典型尺寸22mm宽,是单反相机的主力军,具有6百万~5千万像素不等。
4/3英寸画幅sensor,典型尺寸17.3mm宽,微单产品的主力,具有8百万~2千万像素不等。
1英寸画幅sensor,典型尺寸13.2mm宽,用于单反和高端安防产品
1/3~2/3英寸sensor,便携camera和安防camera的主力军,1百万~2千万像素不等。
1/4~1/2英寸sensor,主要用于手机camera模组,8百万~4千万像素不等。