AI 文摘

扩散模型原理和pytorch代码实现初学资料汇总





作者: 一蓑烟雨晴 来源: 一蓑烟雨晴

‍1.扩散模型和分数匹配模型的资源和论文的汇总

https://github.com/heejkoo/Awesome-Diffusion-Models 是一个github网站

2. 三篇经典论文

3.看过的扩散模型博客

  • The recent rise of diffusion-based models可以了解到扩散模型近年比较经典的应用

  • Introduction to Diffusion Models for Machine Learning从中可以了解到一个实现扩散模型的库denoising_diffusion_pytorch,博客中有使用案例

  • What are Diffusion Models?也是扩散模型的一个理论介绍博客,推导挺详细的

  • Diffusion Models as a kind of VAE探究了VAE和扩散模型的联系

  • The Annotated Diffusion Model扩散模型理论和代码实现,代码我进行理解加了注释与理论对应,方便大家理解

  • An introduction to Diffusion Probabilistic Models也是一个介绍性博客,公式也很工整

4. 看过的一个B站视频

  • 54、Diffusion Model扩散模型理论与完整PyTorch代码详细解读我是看过其他资料后才看的这个视频,所以一遍都能全看懂,不知道初看怎么样

代码我也进行理解加了注释与理论对应,方便大家理解

5.未看过的扩散模型博客

其他相关资料

  • 机器学习-白板推导系列(十二)-变分推断(Variational Inference) 知道Lvlb等概念是什么(B站视频)

  • 【学习笔记】生成模型——变分自编码器 理解VAE(博客)

  • 【机器学习】白板推导系列(三十二) ~ 变分自编码器(VAE) 理解VAE(B站视频)

  • https://github.com/labmlai/annotated_deep_learning_paper_implementations 有很多深度学习算法的实现

  • The Annotated Transformer transformer的pytorch实现的一个解释博客

  • positional_encoding的一个实现案例 github代码

  • 强烈推荐!台大李宏毅自注意力机制和Transformer详解!B站视频

  • 《Attention Is All You Need》 transformer和注意力机制原论文

  • Transformer论文逐段精读【论文精读】

  • 64 注意力机制【动手学深度学习v2】 我根据官方资料整理了jupyter代码实现文件,可从头到尾直接运行

  • Reparameterization Trick 白板推导变分推断后两节也有提到

  • isotropic Gaussian distribution

  • A Recipe for Training Neural Networks‍

公众号链接不好放,链接和加工后的代码,请移步以下github下载获取
https://github.com/yangqy1110/Diffusion-Models

References

[1] 《Deep Unsupervised Learning using Nonequilibrium Thermodynamics》: https://proceedings.mlr.press/v37/sohl-dickstein15.html
[2] 《Denoising Diffusion Probabilistic Models》: http://arxiv.org/abs/2006.11239
[3] 《Improved Denoising Diffusion Probabilistic Models》: https://proceedings.mlr.press/v139/nichol21a.html
[4] The recent rise of diffusion-based models: https://maciejdomagala.github.io/generative_models/2022/06/06/The-recent-rise-of-diffusion-based-models.html
[5] Introduction to Diffusion Models for Machine Learning: https://www.assemblyai.com/blog/diffusion-models-for-machine-learning-introduction/
[6] What are Diffusion Models?: https://lilianweng.github.io/posts/2021-07-11-diffusion-models/
[7] Diffusion Models as a kind of VAE: https://angusturner.github.io/generative_models/2021/06/29/diffusion-probabilistic-models-I.html
[8] The Annotated Diffusion Model: https://huggingface.co/blog/annotated-diffusion
[9] An introduction to Diffusion Probabilistic Models: https://ayandas.me/blog-tut/2021/12/04/diffusion-prob-models.html
[10] 54、Diffusion Model扩散模型理论与完整PyTorch代码详细解读: https://www.bilibili.com/video/BV1b541197HX?spm_id_from=333.337.search-card.all.click&vd_source=76d3e05c80d0417f315b79db5b98b2cf
[11] Generative Modeling by Estimating Gradients of the Data Distribution: https://yang-song.net/blog/2021/score/
[12] 机器学习-白板推导系列(十二)-变分推断(Variational Inference): https://www.bilibili.com/video/BV1DW41167vr?spm_id_from=333.999.0.0&vd_source=76d3e05c80d0417f315b79db5b98b2cf
[13] 【学习笔记】生成模型——变分自编码器: http://www.gwylab.com/note-vae.html
[14] 【机器学习】白板推导系列(三十二) ~ 变分自编码器(VAE): https://www.bilibili.com/video/BV15E411w7Pz?spm_id_from=333.999.0.0&vd_source=76d3e05c80d0417f315b79db5b98b2cf
[15] The Annotated Transformer: http://nlp.seas.harvard.edu/2018/04/03/attention.html
[16] positional_encoding的一个实现案例: https://github.com/jalammar/jalammar.github.io/blob/master/notebookes/transformer/transformer_positional_encoding_graph.ipynb
[17] 强烈推荐!台大李宏毅自注意力机制和Transformer详解!: https://www.bilibili.com/video/BV1v3411r78R?spm_id_from=333.337.search-card.all.click&vd_source=76d3e05c80d0417f315b79db5b98b2cf
[18] 《Attention Is All You Need》: https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf
[19] Transformer论文逐段精读论文精读: https://www.bilibili.com/video/BV1pu411o7BE?spm_id_from=333.999.0.0&vd_source=76d3e05c80d0417f315b79db5b98b2cf
[20] 64 注意力机制动手学深度学习v2: https://www.bilibili.com/video/BV1264y1i7R1?spm_id_from=333.337.search-card.all.click&vd_source=76d3e05c80d0417f315b79db5b98b2cf
[21] Reparameterization Trick: https://lilianweng.github.io/posts/2018-08-12-vae/#reparameterization-trick
[22] isotropic Gaussian distribution: https://math.stackexchange.com/questions/1991961/gaussian-distribution-is-isotropic
[23] A Recipe for Training Neural Networks: http://karpathy.github.io/2019/04/25/recipe/

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具