分享到:
发表于 2014-09-21 18:03:16 楼主 | |
人眼5.76亿像素是误导 最近在网络上流传人眼的分辨率是5.76亿像素,百度一下,几乎都是这种说法,偶尔有几个反对的,也没有说清楚。摄影爱好者都清楚,1亿像素的相机,现在还是概念机,人眼真有那么高的分辨率吗?我个人认为那是误导,我们做简单的计算就可以知道。 误导一:眼睛水平视觉单眼120°和垂直视觉60度,在这个范围内有0.003弧度(1′)的分辩率。以120°和60°去除以0.003弧度获得5.76亿像素。 其实人眼分辩率最高的区域在视网膜上只占很小一点,只有眼睛中央10°左右的范围最清晰,也就是视黄斑部分,到了周围的分辨率就会大大下降。 视网膜的分辨率如下图所示 (A: 原始图像,B: 像素空间分布,D: 中心分辨率高,周边分辨率低): 正确的计算应该是:黄斑中心凹附近的范围内有1′的分辨率(1.0视力),离开中心凹以后,视力下降到10′的分辨率(0.1视力)。因此单眼的视野水平方向大约150°,只有中间10°是1′的分辨率,其他140度都只有10分的分辨率。 为什么说只有中央黄斑是1′的分辨率呢?苹果公司在推出iPhone4时提出了视网膜显示屏的概念,即分辨率是300DPI。在苹果APP Store上有个软件CanUC,感兴趣的读者可以下载这个软件测试一下自己的视网膜分辨率。在测试的时候,你如果不死盯着测试点,而是看手机边缘,看自己的视网膜分辨率会下降多少。 300DPI的一个点有多大呢?DPI是每英寸多少点,1吋=25.4mm,300DPI的一个点的大小 25.4mm÷300=0.085mm 在300mm的明视距离对应的分辨角度 0.085mm÷300mm=0.00028222弧度 (即0.97′) 所以黄斑的分辨率大约是1′。 单眼水平方向 中央黄斑10°×60÷1′=600点 周边 140°×60÷10分=840点 水平方向合计 600点+840点=1440点 单眼垂直方向 中央黄斑10°×60÷1′=600点 周边 50°×60÷10′=300点 垂直方向合计 600+300=900点 人单眼的图像分辨率 1440×900 约130万像素 好视力的人1.5的视力,所以130万像素有点保守,大概在130万~180万之间。
误导二:人眼有500万个椎体细胞识别颜色,约有1.2亿个棒状细胞感知波长390~770纳米的光线的亮度。由此等同于1.25亿个像素。 其实,椎体细胞分为3种,分别对红光、蓝光、绿光发生反应。不同颜色的光线,对这3种视维细胞造成不同程度的刺激,综合起来,就复合成原来的颜色。 500万个椎体细胞分成3组,就应该是500万÷3=167万个单元,相当于167万个像素。 这1.2亿个棒状细胞是与那500万个椎体细胞一起作用,每个像素有 1.2亿÷500万÷3=8个棒状细胞参与。 3个椎体细胞和8个棒状细胞构成一个像素点。 因为一个像素点要包含8位灰度级次,即2的8次方灰度级次(256级);人眼对8、16、32位灰度级次的正确分辨分辨约为93.16%、68.75%、45.31%。 如此分析人眼就只相当于167万像素。 尽管每只眼中有 1 亿多个光受体,但是只有一百多万个神经纤维连接到大脑。所以人眼一百多万像素是符合神经传输的。
误导三:人眼比现在分辨率最高的中画幅相机还高,人们看照片总没有身临其境的感受深。亲眼看到的要清楚得多。 其实,亲眼看到的图像是经过大脑合成的若干图像,而且每个个体、不同时刻所感兴趣的图像不一样,A时可能关注气势宏伟的山川,B时可能关注树下的鲜花,C时可能关注一群蚂蚁在搬一只虫。目前像素再高的相机也不可能同时记录下这些高清的画面。所以不能以大脑合成图像来说明像素高,如果一部相机拍摄几张图片,最后合成起来,这样获得的像素能说明是相机的总像素吗?
如果把人眼与相机比较,一般来说单眼大约相当于等价135规格的焦距50毫米镜头视角,双眼大约相当于等价135规格的焦距35毫米镜头视角。所以我们把焦距50mm左右的镜头叫做标头,把焦距35mm左右的镜头叫广角镜。 单眼: 等价135规格的焦距:50毫米焦距(定焦) 光圈:F4-F32可变 图像分辨率:130万~180万像素 感光度:ISO 50~ISO 6400 快门:1/24 连续拍摄:24张/秒 双眼: 合成来自两个相机有位相差的两幅图像,由大脑处理后呈现立体图像。 评分:+Z金豆 5 已有 1人参与评分 |
|
个性签名:无
|
发表于 2014-12-14 13:10:33 1楼 | |
精品文章,感谢师友精彩理论的解答, | |
针对ZOL星空(中国)您有任何使用问题和建议 您可以 联系星空(中国)管理员 、 查看帮助 或 给我提意见