本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 GAN(Generative Adversarial Networks)于2014年由 Lan Goodfellow 提出,被 Yann LeCun 誉为"The coolest idea in deep learning in the last 20 y
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 AutoEncoder 是 Feedforward Neural Network 的一种,曾经主要用于数据的降维或者特征的抽取,而现在也被扩展用于生成模型中。与其他 Feedforward NN 不同的是,其他 Feedforward NN 关注的是 Ou
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 CNN(Convolution Neural Network) 和 RNN(Recurrent Neural Network)是当下 Deep Learning 应用领域中主流的两大结构。前篇文章中我们介绍了 CNN,本篇开始我们聊聊 RNN。RNN 跟
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 上一篇文章中,有同学表示对 CNN 的 BP 很感兴趣,本篇就把此理论细节补全。然后,会继续补充一些有趣的 CNN 架构及其相关细节。 CNN 与 Backpropagation CNN 可以看成是普通 FC(Fully Connected)DNN 的
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 CNN(Convolution Neural Network,卷积神经网络)作为一种经典的 DNN 结构,上世纪90年代就已经被提出了,却沉寂近20年。有趣的是,在2012年 AlexNet 大放异彩后,CNN 在随后几年近乎卷席了整个图像处理领域,很有点
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 在前两篇中,我们介绍了各种 DNN 中需要调节的参数,已经能窥见 DNN 参数是多么难以调节。而且,这还只是九牛一毛而已。在本篇中,我们会先简介一些“数据预处理”的方法,然后介绍由此演进出的 Batch Normalization 结构。Batch Nor
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 Gradient Descent Optimization Mini-batch SGD 在当我们在谈论 Deep Learning:DNN 与它的参数们(壹)中我们介绍过 Mini-batch SGD,它是 GD 与 SGD 的一个折中选择,有着较好的收敛效
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 在上一篇文章中我们介绍了 DNN 的基本结构,以及使用 BP(Backpropagation)求解的说明,并简单介绍了在 DNN 中可以使用 Mini-batch GD(Stochastic Gradient Descent)来获得更好的结果。这几个方面算
本系列意在长期连载分享,内容上可能也会有所增删改减; 因此如果转载,请务必保留源地址,非常感谢! 知乎专栏:当我们在谈论数据挖掘 引言 Deep Learning 是众多机器学习算法中的一种。它起源于60年代的 Perceptron,经过80年代的 Artificial Neural Network,现阶段被称为 Deep Learning。迄今为止,是“有监督学习”领域最强大的算法类型,
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信