0%

Crafting a Toolchain for Image Restoration by Deep Reinforcement Learning

主题:多工具图像复原

1.大神经网络瞎搞 2.针对单一的问题。
缺点:耗时和浪费资源、不透明

我的改进:小型工具、多个不同复杂度的神经网络、通过RL选取合适工具。透明、快速。

难点:调整程度、工具使用顺序;不可逆、相互影响

Agent:

action(略)、state(当前图像,历史动作向量)
award: 处理前后PSNR差值(很方便换其他的,如perceptual loss [18],GAN loss)
img
结构:
Feature Extractor: 一个全联层+4层CNN
LSTM:长短期记忆网络
One-hot Encoder: 独热编码

训练:

Deep Q-learning
MSE均方误差最低。
损失函数:

 r = 0.99
两种更新:
1.随机。2.序列更新
联合训练:
对于输入图像,先通过工具链前向传播得到最后的复原图像,通过与清晰参考图像对比得到MSE损失,然后通过工具链对误差进行反向传播,根据平均的梯度值更新工具网络的参数
学习:初始学习度0.1,每20代减少0.1。使用Adam [21] optimizer训练Agent

结果:

和DnCNN [44]and VDSR [19]对比,效果相似的情况下复杂度明显降低

分析:

1.工具链长度、数量:12/3.
2.奖励函数:对比多个运行效果。采用的不见得最好,比其他表现好。
3.自动停止:奖励函数下降不超过0.15db时自动停止。小的失真如果不停止容易过度修复。

优点:新思路。

多工具自适应,解决其他图像处理的问题。
在细节上没有什么新鲜的,工具也比较简单。

来源:sensetime

complexity
复杂性
artifacts
人工制品
parameter
参数
specialized
专业的
degradation
毁坏
severity
严重程度
appropriate
合适的,适当的
inherently
固有地
progressively
逐步地
scheme
方案
collaboratively
协同地
deem
认为
conventional
传统的
philosophy
哲学
depict
描绘
distortions
畸变
adaptively
自适应
simultaneously
同时地
immense
巨大的
aforementioned
上述
extent
程度
demonstrated
论证
potentially
潜在地
simultaneously
同时地
discriminative
判别式
contaminated
污染
recursion
递归
compression
压缩
distortion
失真
orthogonal
正交
incorporated
合并
mechanism
机制
hallucination
幻觉
out-of-focus blur
失焦模糊
exposure
暴露
intermediate
中间的
irreversible
不可逆
Markov Decision Process
马尔可夫决策
refine
精炼
propose
建议
recurrent
复发的
plausible
貌似有理的
corrupt
腐坏的
robustness
鲁棒性
essential
本质的
derive
得到
empirically
经验性的
depict
描绘
concatenated
级联的
derived
衍生的
episode
片段
sequential
时序
gradient
梯度
iteration
迭代、重复

-------------这么快就看完啦^ω^谢谢阅读哟-------------