0%

Distort-and-Recover: Color Enhancement using Deep Reinforcement Learning

主题:色彩增强
原文:https://www.arxiv-vanity.com/papers/1804.04450/
简介:使用DRL的颜色增强方法,选取图像增强的操作。训练使用高质量图像,进行扭曲-恢复的训练。(!这个可以节省标记时间和成本和主观性,为其他提供参考)

#感觉跟修复受损图像的有点像啊

他人工作:

Exemplar-based methods:(不用管了)
基于学习: 源颜色分布到目标颜色分布

  • 多模态问题:??
    我们:马尔科夫决策过程,将修饰看作全局颜色调整。
    基本操作:亮度、对比度、白平衡

#不同图像受到不同人群喜爱:改变重一点轻一点。
#逆过程(有人要吗??);滤镜添加
#想法:锐化等。图像局部处理(目标检测/图像分割+处理过程)。
#随机训练:但是可能和现实可能见到的图片相差甚远。现实。死黑死白到失真问题。

对比:

基于关键词搜索;基于图片风格搜索; 数据库中找到候选图像,然后搜索局部颜色增强算子。
基于学习:深度。。
和我们最接近:Yan \etal[19] 。区别:我们的智能体直接选择一个操作。不需要按步骤评价。不受限于数据集。动作集不受限。
之前的数据集有分布偏差,需要训练对得到特定分布,泛化性差。
生成对抗网络:可以用于此工作。*一个生成对抗网络的应用例子。

模型:

目标函数:人类输入图像作为标准背景、我们要的图像跟它比最接近。
img1
最小。
对比函数:
img2
马尔可夫决策:状态(上下文+颜色)、动作。。
deterministic 每一步操作确定。
加上次数t:
img3

框架:Q-learning

学习:选取最高。
#此算法是贪心。考虑采用其他选取方法?

动作空间: #叠加有效。
img4

?语境特征: CIELab

训练:

1.扭曲-恢复训练。选取一些简单、实际、非线性类型的随机扭曲

基于tf, Adam优化器

特征选择:sixth layer of VGG16 [16] model

优点:1.最重要:扭曲恢复方法。2.强化学习还可以。


pose estimation 姿态估计
semantic <语>语义的,语义学的
segmentation 分割; 分段; 切分; 分节
sophisticated 复杂的; 精致的; 富有经验的; 深奥…
distortion 扭曲,变形; 失真,畸变; 扭转
terminate 结束; 使终结; 解雇; 到达终点站; 结束的
Notation 记号,标记法
recognition 意识
threshold 阈值
Temporal 时间的; 世俗的; 暂存的; <语>表示时…
Inference 推理; 推断; 推论
Intuitively 直觉地,直观地; 由直觉而得地
gradient 梯度,陡度; 变化率,梯度变化曲线; <…
in line with 本着; 跟…一致,符合
recognition network 识别网络

-------------这么快就看完啦^ω^谢谢阅读哟-------------