0%

A2-RL: Aesthetics Aware Reinforcement Learning for Image Cropping

主题:图像裁剪

image cropping    :根据图片的构图裁剪图像
点评:https://baijiahao.baidu.com/s?id=1594068742057154438&wfr=spider&for=pc
多数弱监督学习:基于滑动窗口机制。缺点:1.限定纵横比,裁剪大小任意。2.需要上万的备选窗口,费时间。

我们的工作概述:

将图像裁剪看成序列决策过程,提出弱监督强化学习框架:Aesthetics Aware Reinforcement Learning (A2-RL)

framework

-》尤其是提出一种关于美学图像裁剪的奖励函数
-》与人类裁剪图像相同,采用一种综合的状态表示法,表示当前视图和历史经验。
-》采用端到端的actor-critic结构训练agent智能体
-》agent采用一些不可视的裁剪数据集评估,发现跟原来的方法比时间快、窗口少,打到要求。

他人工作步骤:

密集提取备选窗口
找到每个窗口的特征
评估找到最佳区域

我们评价:

第一个使用强化学习解决图像裁剪问题。选择窗口很快得到任意形状的结果。
验证数据集:[34, 11, 4]

他人具体工作:

[15, 7, 19, 9]:设计手动的特征,基于人类的直觉和摄影的规则技巧
感谢深度学习和大规模数据集[22],[16, 20, 8]使用深度学习进行审美评价
两种类型方法:1.基于美学。2.基于注意力机制
    [28, 27, 24, 2] 基于注意力:找到最显眼的东西,不考虑构图
    基于审美:找到最合适构图。 评价基于美学质量分类法 [23, 11]。或使用RankSVM [4] or RankNet [5]对比原始图像和裁剪图像丢弃低质量。或重定向方法 [6, 3]调整目标和原始纵横比并不丢弃重要内容。
两种监督:1.监督(boxs贵)。2.弱监督(滑动窗口)。取决于是否使用 bounding box annotations
我们使用强化学习选择窗口。
*Hong et al. [12]也讲看作时间序列问题,但是使用了bba
强化学习在图像中的成功应用:图像主题〔26〕、物体检测〔1, 13〕和视觉关系检测〔18〕
*active object localization method [1]在无区域检测的检测算法中表现最好
*tree-RL method [13]用强化学习获取区域建议比RPN [25]更好
#上述强化学习算法用了bba做标记,我们只用美学质量做标记。

主题:智能体读取原始图像和窗口图像,根据经验状态做出动作分割图像,得到外部奖励,调整。

状态空间:st,当前+历史状态的集合。使用LSTM记忆历史视图。
动作空间:14个,大小、位置、长宽比。移动为0.05倍的图片。终止有触发器,自动停止,当奖励分数不再增加时。
奖励函数:用aesthetic score。比较每次和上一次。为了快点结束,加一个和次数t相关的奖励函数。
奖励函数:

。sign:符号函数?(-1/1)。t为操作次数。
*长宽比超过2或不足0.5,给出消极信号nr
ar和nr调整。

结构:

图像:5个卷积block,1个全连block。
接着分为两部分。Agent:3个全连层+LSTM(长短期记忆网络)。另一部分评估。
两个输出:actor:critical
image

模型训练:

A3C

模型评估:

数据集描述,数据集表现略。参数:相同面积/总截取面积。
和之前方法、不采用LSVM、不采用纵横比截取对比。

*来源:中科院自动化所智能计算与感知中心

cropping
裁剪
#proposal 
提议\建议(region proposal )
theoretically
理论上
composition
构图
optimize
优化
intuitional
直觉的
mechanism
机制
manipulate
操纵
convolution
卷积
supervision
监督
execute
执行
assess
评估
annotation
注释
converge
收敛
estimation
评价
novel
新的
heuristic
启发式
asynchronous
异步的
obtain
得到
corresponding
相应的
optimization
最优化
densely
密集的
penalty
刑罚
entropy

extract
提取
modify
修改
denote
代表
inevitably
不可避免地
capture
捕获
parameters
参数
discriminate
辨析
trigger
触发器

-------------这么快就看完啦^ω^谢谢阅读哟-------------