- 论文题目:RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion
所解决的问题
用强化学习控制GAN
网络,以使得GAN
更快,更鲁棒。将其用于点云数据生成。全网第一次用RL
控制GAN
。通过数据驱动的方法填补三维数据中的数据缺失。
所采用的方法?
预训练阶段,训练一个自编码器,用于生成隐空间的表示,之后用这个去训练GAN
网络。强化学习智能体用于选择合适的
向量,去合成隐空间的表示。与之前的反向传播发现
向量不同,本文采用RL
的方法进行选择。
主要由三个模块组成:1. 自编码器;2.
-GAN;3. 强化学习智能体(RL
)。
自编码器
自编码器用的损失函数如下:
其中 和 代表点云的输入和输出。
-GAN
结合GFV
来训练GAN
。
- Chamfer loss:
输入点云数据
和生成器和解码器输出数据
做loss
:
- GFV loss:生成
CFV
和输入点云
- Discriminator loss 判别器损失函数:
强化学习
强化学习用于快速选择GAN
生成器的输入
:
奖励函数定义为:
其中
,
,
。智能体用DDPG
算法。
取得的效果?
参考资料
相似文献:
- Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas. Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, 2017. (有提到用隐空间数据训练GAN会更稳定)。
相关GitHub
链接:
- https://github.com/lijx10/SO-Net
- https://github.com/heykeetae/Self-Attention-GAN
- https://github.com/sfujim/TD3
转载:https://blog.csdn.net/weixin_39059031/article/details/105592236
查看评论