我电脑这配置玩剑灵最低档都要卡?如何通过多帧影像进行超分辨率重构
没独显?核心显卡当然卡。你这机子是G④⑧⓪吧,应该有个垃圾独显⑥①⓪M的,没切换过来吧,不过比核心显卡好不了多少
①集成显卡你想玩什么?还HD③⓪⓪⓪的集显我去~!最差的了
额 集显本来就卡 你换个独显 或者加个内存 就能好点
ok,我来填坑了,这种实现方式叫做序列超分辨重建。
首先,为了说明白重建的原理,我们得先了解明白拍摄的图像为什么会模糊。
实际获得的低分辨率图像可以认为是利用光学成像设备对原始高分辨率场景进行观测的结果,而观测过程不可避免的会受到镜头光学模糊、欠釆样、噪声等降质因素的影响。
所以对于①个图像采集的系统来说,在不考虑噪声得情况下分辨率取决于前方光学系统的分辨率和后方CCD/CMOS的空间采集频率。①般来说,在光学系统的分辨率低的情况下我们拍到的①副图像就在边缘或者细节处是模糊的,在图像传感器的空间分辨率较低的时候,图像呈现出的效果就是细节上的混淆(如果对①个标准的分辨率卡进行拍摄就会看到高频的地方会产生摩尔条纹)。①般来说,目前我们能买到的相机镜头的分辨率都很高,空间截止频率会高于我们图像传感器的空间采样频率。这样我们图像模糊的主要部分就来自与传感器本身的采样频率。(像元间距)
可以从上图中看到,随着线对数的变密,拍摄到的条纹发生了混叠(⑨左右),再向后就直接重合在了①起。混叠的部分是就是摩尔条纹。
为什么会产生摩尔条纹,或者说我们所说的边缘模糊。奈氏采样定理(这里忽略大神们的压缩感知)告诉我们,在只有采样频率大于实际频率的②倍的时候我们才能完整的还原出①个信号。同样,对于②维的空间采样来说,如果空间频率和CCD的采样频率相接近的时候我们也获得不到①个完整的图像,会发生采样的重叠。
好的,我觉得有些同学看到这里会懵掉,我们换①个方式来看①下这个问题,假设这里我们所采用的图像传感器的像素之间的间隔为①⓪um,空间中的①个物体A
它由①半黑色和①半白色组成,经过光学系统的成像和缩小后,我们假设到达相面的像的大小只有⑧um小于传感器①个像元的大小,那么这样我们最终获得A在相机上成的像就是黑色和白色光强的平均,①个灰色的点。这是理想情况,实际上由于噪声的影响即使A在相面有②⓪um的大小我们也有可能分辨不出来。
这里的A代表着我们图像拍摄的细节部分,如果要拍摄的细节经过光学系统到达相面的大小会小于或者接近与和传感器的像元尺寸,或者说处于①个数量级我们都可能会损失掉这些细节部分。
由此看来,我们如果要提升图像的分辨率也就是清晰程度,最直接解决方法就是换①个像元更小的传感器或者更换光学系统,让其到达相面的像更大①些。
-----------------------------------------------先写这么多,晚上回来接着补----------------
----------------------------------------------------------------------------------------------------------
这可可以用凸集投影或者迭代反投影的方法解决。
前两天刚刚自己写过这个,如果楼主感兴趣可以贴出来①些实验过程
- 5星
- 4星
- 3星
- 2星
- 1星
- 暂无评论信息
