研究人员公开一种影像处理技术,可让因相机震动而模糊的照片恢复清晰。
这种技术所根据的演算法,可推演出相机震动时的拍照路径,然后利用该路径逆转大部分的模糊影像。这种方法并非绝对有效,但麻省理工学院(MIT)和多伦多大学的研究员在各种样本影像上的使用效果相当显著。
其中一个样本是一只黑、白和赭色相间的鸟,影像模糊到无法识别出鸟掌的样子。处理过后,不仅鸟掌清晰可辨,还可看清鸟眼旁的暗斑、黑色羽毛间的白纹和其他细节。
MIT首席研究员Rob
Fergus上周在Siggraph电脑图像会议后表示:“这是自然影像统计数据首次成功地用在清晰化影像。”参与的研究员已为这项程序申请专利。
Fergus说,新技术使用一种描述照片由光转换到暗的统计特性,一般需要10到15分钟。该特性与所有实体世界影像相同,因此,通过抓出特定影像的不同处,该程序可以推算相机的动作。
影像处理是一门大生意,其中一大部分是修补人为和相机的错误。影像编辑软件产品,甚至某些相机本身就可解决闪光灯造成的红眼问题,防手震功能也是近来新相机的一大卖点。
Adobe Systems的Photoshop就有许多外挂模组,可帮助改善画面,如消除影像干扰的污点,或加深影像轮廓等。
现在,Photoshop最新版CS2的“智能清晰”滤光软件具备若干清晰化科技,若相机是直线移动,便可在有限的情况下补救聚焦和影像模糊的问题。大学研究员的方法,则是针对更复杂的抖动情况。Fergus说:“实际的模式非常奇特。”
Adobe数字影像产品开发副总Dave
Story认为研究员的方向正确。他说:“比我们以前看过的更好一点。你可以更准确且更自动地判断模糊的出处,还能处理非直线的路径。”
但Story指出,这项程序会留下一些加工痕迹,仍需进一步改善。他说:“我们研究这个领域已经三、四年了,在如何让民众乐意使用且不会产生任何不自然痕迹这方面,一直都有挑战。”看到样本影像的受试者均表示,相片中的人看起来“恐怖且不自然”。
Fergus的技术是利用在各种不同类别相片中一致存在的统计特性。这些特性是集合个别像素与邻近亮度对比的测量值。
Fergus说:“结果是实体世界的影像通常有其特殊的分布(由明渐至暗)。如果拿许多不同的照片来看,(明暗)渐次分布就非常类似—这不会改变你对不同影像的认知。”
但电脑产生的随机影像却有不同的分布。Fergus说:“真实影像就不是百万次元空间内随机分布的点。它们有一定的结构。”而模糊影像的明暗对比有不同的组合。他表示:“所有那些扭曲的变化都被抹去。”
整个过程的中心是根据缺少的对比估算相机如何移动。一开始先用原始影像的低解析版非常粗略地估算相机的动作,然后渐次用解析度更高的版本重复整个过程。
Fergus说:“我们用清晰对比的分布对照真实、清晰影像的样子。借由分解成较小的步骤,我们可以成功抓出相机实际震动的非常复杂的特性。”
这项结果称为模糊核心,一个显示相机在哪些地方发生震动的网格。模糊核心就是该技术第二阶段的基础—1970年代初期开发的程序“反缠绕”(deconvolution),用来逆转特定的模糊效果。
整体而言,处理一般的数字相机影像需要10至15分钟。不过,Fergus并未在处理效率上费心,这部分未来还有很大的改善空间。
Fergus表示:“用Photoshop,理想的外挂或许最多只要一分钟。”有更多时间花在谨慎、有效的执行上,Fergus相信这项技术将达到更接近使用者所需理想速度,甚至快到足以在相机内执行。
一点人力的付出是必要的:使用者必须在原始影像内挑选一块有边缘的方形区域,面积太小会让结果不良,面积太大则会让处理时间过长。
此外,极亮或极暗的照片也不适合处理—也就是影像编辑术语中的”clipping”问题。因此,这项演算法较适合处理高端数字相机拍摄的“未处理”影像,其光度的范围较广。
另一个问题出自所谓的杂乱影像,如配备小影像感应器之低端相机拍摄的照片—尤其是在昏暗中摄取的影像。Fergus说,杂乱的班点可能被视为边缘。
这项技术在短期内不太可能推出或整合至相机内。Fergus说:“这是第一步,达到实际应用前还有很长一段路要走。”
(责任编辑:韩建光) |