最近一直在做和GAN相关的工作,看了很多博客和文章,零零散散,每次要看就要再次查找,或是开一大排窗口,很不方便。
看到ywwhack/react-journey这个仓库有了灵感,想要尝试将看过的资料整合在一起,方便自己同时也是方便后面做这方面工作的同学查阅。
同时,欢迎大家补充,分享优质学习资料。
GAN于2014年由Ian Goodfellow提出, 论文:Generative Adversarial Nets
一篇可读性&趣味性并重的GAN简介,想简单了解一下GAN的可以直接看这里:GAN系列学习(1)——前生今世
GAN数学公式细解:生成对抗网络GAN的数学公式的前因后果
在经历了2014和2015两年的酝酿,在2015年下半年和2016年上半年,GAN领域相关研究出现了爆炸性的增长。
一篇承上启下的GAN主要变种简介:DCGAN、WGAN、WGAN-GP、LSGAN、BEGAN原理总结及对比
这是我最早接触的一个GAN变种
DCGAN是继GAN之后比较好的改进,其主要的改进主要是在网络结构上
论文:Unsupervised representation learning with deep convolutional generative adversarial networks
github:DCGAN-tensorflow
在线Demo:NEURAL FACE
DCGAN快速上手Demo,亲测可行——二次元萌妹头像生成:GAN学习指南:从原理入门到制作生成Demo
与DCGAN不同,WGAN主要从损失函数的角度对GAN做了改进
github:tensorflow-generative-model-collections
WGAN-GP是WGAN之后的改进版,主要改进了连续性限制的条件,作者发现将权重剪切到一定范围之后,比如剪切到[-0.01,+0.01]后,发生了这样的情况,如下左图所示。
论文:Improved Training of Wasserstein GANs
github:wgan-gp
图像降噪:
最早搜到的一个GAN降噪实验:ImageDenoisingGAN
DCGAN降噪:DCGANs for image super-resolution, denoising and debluring
去雨(和去噪同理):Image De-raining Using a Conditional Generative Adversarial Network
GAN在NLP方向摸索: 记录一次与大神们的关于GAN应用于NLP的讨论
LeakGAN: 如何让对抗网络GAN生成更高质量的文本?LeakGAN现身说法:“对抗中,你可能需要一个间谍!”
对应论文:Long Text Generation via Adversarial Training with Leaked Information
目前在中国诗词数据集上取得最好结果的论文: 自然语言对抗生成:Adversarial Generation of Natural Language
中文报道:【GAN X NLP】自然语言对抗生成:加拿大研究员使用GAN生成中国古诗词
其向判别器D提供来自生成器的概率分布序列和对应于真实数据分布的1-热矢量序列,强制判别器D对连续值进行运算
各类主流激活函数简介:ReLU、LReLU、PReLU、CReLU、ELU、SELU
Andrew Ng新作,教你如何构建机器学习项目(翻译优化中):「Machine Learning Yearning」中文版
详解 1x1 Convolution(是英文材料,但是很好懂,配图很直观):One by One [ 1 x 1 ] Convolution - counter-intuitively useful
持续更新...