这其实很好理解,事实说明问题,就是很多超1000万像素的手机摄像头,拍出来的照片还不如某些800万像素的手机(如iPhone 5s),甚至连高像素优势所在的分辨率都不及,这还不足以说明问题吗?(而且2000万像素?拜托那么大,谁用得上啊!)
的确,探讨相同尺寸的CMOS图象传感器(比如大家都是1/3英寸),如果不在设计和工艺上做出改进,画质是会变糟的。这就要谈到可以让很多人高潮的单个像素点尺寸了:一个800万像素的1/3英寸图象传感器,单个像素点的尺寸是1.4μm;一个1300万像素的1/3英寸图象传感器,单个像素点的尺寸是1.1μm。
在图象传感器尺寸不变的情况下,被切分得越多块(也就是像素数目越大),则单个像素尺寸越小,像素密度越大。像素密度越大,临近像素产生串扰的情况也会愈发严重。
比如说,每个像素并非所有区域都用来感光的,感光区域周围有一部分是电路,如上图左边这个围绕在黄色像素区域周围的Circuit section蓝色部分就是电路。1300万像素1/3英寸图象传感器单个像素尺寸肯定比800万像素的小了,那么这部分感光区域还要进一步缩小。手机级别的图像传感器,那点可怜的像素尺寸本身就很无奈,更何况还要让电路占据位置。
其实像素变多,但设计不变的话,还会有更多的问题产生,上面列举了几个颇重要的。
有关注过手机所用图象传感器的同学,对于第一部分援引的这两张图应该都不会陌生。尤其是第二张,这是索尼用于宣传自家堆栈式图象传感器的图片(但发明这种堆栈式结构的似乎并不是索尼)。就是如前文所述,既然像素周围有电路,牺牲了感光区域的尺寸(像上面的X光图一样),那就把这个电路移到下层去,这样上面不就有更多的空间拿来感光了吗?图2的右边部分就是这么做的。
这个设计其实的确是成效卓著的,尤其在手机这种图像传感器尺寸小得可怜的设备上。索尼给手机所配的第一代堆栈式图象传感器的典型代表产品是IMX135——这颗传感器在三星Galaxy S4手机身上发挥出了很好的实力。即虽然1300万像素的单个像素点尺寸变小了,但每个像素的感光区域面积却相较800万像素没什么损失。所以各项指标相较上代800万像素图象传感器都有提升,不光是解析力。
这就是个典型的,在图象传感器尺寸不变的前提下,提升像素数量,但画质也跟着提升的例子。
背照式图像传感器,或者叫BSI,其实也就是将色彩filter和感光层之间的电路移到后面去,这种方案也能一定程度解决串扰和光线利用率低的问题。可能很多人会奇怪,既然此种策略成效如此卓著,那人类早干嘛去了呢?其实无论是背照式,还是什么堆栈式,对制造工艺都还是有一定要求的,人类科技进步才有了这样的基础。
说到串扰,第一部分就谈到,如果光线是斜着照射进像素,那么很可能在经过微透镜和色彩filter之后就穿越到其他像素去了(图1)。解决这个问题的方案就如图1右侧那样,在像素井之间加入隔断就可以了,运用类似设计的像是三星比较著名的ISOCELL图象传感器,还有苹果iPhone 6s/6s Plus首次将像素数量提升到1200万时,像素间也用上了这种隔断的设计。实际上,现如今的绝大部分旗舰手机摄像头都已经用上了所谓的像素隔离技术,小米还曾大肆宣传过这种方案。至于第一段说到的微透镜中间有个小间隔,这个问题也完全可以通过将小间隔去掉的方式来解决嘛,无非就是每个微透镜覆盖区域变大一些不就好了——当然这一步的迈进也并不像我们说得这么简单。
像素究竟怎么设计本身就是一门艺术,比如charge well究竟多深,微透镜曲率该是多少,感光二极管的形状尺寸等等。随着索尼、东芝(图象传感器部门已经被索尼收购)、OV这类企业的努力,图象传感器的设计都是在日趋完善的。并不像很多人想的那样,像素数量和成像质量没多大关系。而之所以要这么完善,总体上是在朝着高像素的方向发展。虽然这样的完善需要时间、精力和金钱,而且可能是大量资金砸进去。
你以为索尼、东芝真的那么傻,在搞像素竞赛忽悠群众吗?
当然,这个小标题是有前提的,要不然前面的内容也就白说了。前提一是ISP算法和镜头用料相同的情况下,其次就是前面探讨的重点,工艺需要提升。在这样的前提下,奔着高像素去,是利大于弊的。
或许很多人会觉得奇怪,究竟何以要那么高的像素,眼瞧着4K屏幕都还没普及,4K屏幕也就800万个像素,所以拍照要5000万像素干嘛?高像素的一大核心就是缩图大法。什么是缩图大法?就是把2000万像素的照片缩成800万像素——索尼就很喜欢这么干,Xperia好几代的拍照高级模式,出片都是800万像素,并不是因为考虑存储空间,而是缩图大法的奥义。图片只要一缩,一切都变得更加美好了,为什么?
举个空想的有趣例子,如果说有两个图象传感器,尺寸都是1/2.3英寸(按照索尼2070万像素的IMX220假定的尺寸),但它们的物理像素数目不同,一个是2000万像素,一个是800万像素。拍出来以后,我们将2000万像素拍摄的照片尺寸缩成800万,去和原生800万像素拍出来的照片对比。只要工艺相差并不太大,缩图后的照片必然比另一个直出片就是800万像素的照片要高,为什么?
数字照片拍出来都会有噪声,尤其100%放大后可以看到各种悲催的问题,不管是拜耳结构排列本身的问题,还是感光性能不佳之类。如果说,能将多个像素合成为1个像素,那么不管是何种算法(假定是几个像素取亮度均值,合成1个新的像素),其信噪比或者叫纯净度都会更出色。基于此,在信噪比的问题上,必然是2000万缩成800万像素的成片,比原本就只有800万像素的直出片更好。这是“过采样”原本就该有的优势,高像素之所以应用“缩图大法”,就是对“过采样”的追求。
另外还可以考虑锐度的问题,这个在概念上并不容易说明白。通常我们认为,某个被摄物与周边环境交界处相邻像素的亮度反差越大,则锐度越高(锐度可一定程度反映清晰度)——人眼很多时候为什么会认为某张照片清晰,这与锐度有很大关系,比如某个物体的边界,与其周围环境的像素的亮度差异比较大,则人眼通常会认为这东西拍得比较清晰。
如果作量化,可以说亮度从10%-90%需要经过多少个像素,这个值可以用以反应画面锐度——经过的像素越少,自然就是锐度越高。一张2000万像素的照片,缩成800万像素,无论先前的锐度是多少,在缩了以后,亮度从10%-90%经过的像素数量都会变少,这就是锐度的提升。
所以,如果你需要获得一张800万像素的照片,必然是用2000万像素的手机去拍,然后缩成800万像素,可以获得更好的效果,不管是在信噪比还是清晰度上。高像素的意义自然就能够凸显出来。要不然为什么诺基亚要搞808Purview和Lumia 1020这种4100万像素的手机(当然,它们还有一层意义是在于图象传感器明显更大)。究其本质,就是“超采样”或者“过采样”。如果说东芝定制一款1/1.2英寸的图像传感器,却只做了500万像素,这是个怎样的故事呢?
尤可类比的,有没有听过Lucky Imaging的说法?幸运成像。就是按下一次快门,相机实际拍摄好几张照片,然后把这几张里面最好的选出来,或者将其中几张最好的进行合成,算出一张最干净的——这也是一种过采样。上述高像素的过采样在原理上与此是一样的,只不过层级不同,高像素的这种过采样是“空间过采样”。
另外,解决一个问题,很多人说。单个像素尺寸变小了,高感必然变差。我在去年写的Lumia 950与iPhone 7拍照对比的文章中已经明确提到过,高像素的解析力优势,在暗光环境下拍摄时可能会逐渐丧失,但也没有比低像素设备更差,且在信噪比方面也有更优的表现。
有缩图大法在,或许高感都不再是问题,只要图象传感器是在上述理想状况下。这其实非常好理解,再举个不是很恰当,但易于理解的例子,Lumia 1020的图象传感器单个像素尺寸实际是1.12μm,而iPhone 6的图象传感器单个像素尺寸是1.5μm,如果把两者所拍照片都缩到500万像素的尺寸,显然4100万像素具备了碾压性的优势,根本无视什么单个像素尺寸,足见缩图大法的牛掰。
当然了,毕竟底大一级压死人,Lumia 1020的底比iPhone 6大得多了去了。有兴趣的各位可以去DxOMark看一看同样是全画幅的同代单反,在高感表现上,是否像素多少无甚区别(主要表现在DxOMark给出的Print输出,类似于大家都把图片缩成800万像素,一旦如此,高像素总是有好处的),这更能说明问题。
到这里,我几乎又要再重复一次结论了,就是高像素就是好,高像素就是棒,虽然是有前提的,就是图象传感器在设计和工艺上做得足够到位,那么高像素的确是会带来好处的。
高像素的另一点优势,很多人大概是忘了,Lumia 1020可以干什么?无损变焦,也就是截幅变焦。高像素带来的另一个好处就是截取某部分,画质也不会有太大牺牲,这对构图,尤其是手机这种物理焦距不能变的设备而言显得很有意义。或者说,像我这种常年要参加发布会的人,都是随时要按下快门的,后期截取其中部分,高像素的价值自然能够体现出来。
网友说手机拍照,不是像素越高,拍照越好吗?为什么新发布的oppo手机4800万像素,比一亿像素的手机拍照都好,这是为什么呢?
因为这是胡扯,XPERIA Z1的2070万像素,被GALAXY S8的1200万吊打,就算比本家的XPERIA XZs/XZ1/XZP的1900万像素也是被吊打,像素只能决定分辨率,没有很重要的实际意义,拍照看的是传感器,光圈,算法,软件,现在最好的传感器就是刚才我说的1900万像素的IMX400,但是XPERIA算法不如GALAXY,我自己有Z3(2070万)XZP(1900万),只能说不懂的人才会跟别人说像素决定拍照