您的当前位置:首页正文

在这里分享我学习深度学习的好文章

2024-11-07 来源:个人技术集锦

首先,我是个纯小白,我看了下面这一篇
看了这一篇文章,我大致对神经网络有了一定的理解。
但是我还是有些疑问,为什么计算出来的概率就可以一一对应到各个象限,是提前规定好了吗?
然后我就开始在网上搜索,发现了有人和我问了同一个问题,底下的回答挺有用的。
然后我看了这篇文章,知道了我们其实能得出上面那个结论,是已经提前用标签对应好了。
然后是one-hot的一篇文章,这篇文章对我帮助很大,让我知道了输出层的内部到底是怎么使用one-hot的
到这里,我大概了解了,就是说其实哪个节点对应哪个哪个其实是事先已经规定好的了,而且应该是用了一种类似于one-hot的编码,但是还是有点一知半解。
然后我看到了,真的讲的非常好

就是说我们首先先通过训练得到了w,b的值,这时候神经网络才算是建立成功了,然后再将其投入使用

而且,那些矩阵的运算也看得我很头晕,于是我看了下面的这一篇文章,如果对神经网络矩阵的计算不是很理解,强烈推荐多看几遍这个文章,他对矩阵这一数学运算的理解我觉得很牛!
然后这一篇也是相当不错,印证了我前面很多想法

对训练过程我有了大概的了解,反正我们一开始会随机的设定一些权重,然后根据我们的标签进行训练,这个权重带来的结果可能很不好,但是没关系,我们有损失函数,计算出与真实值之间的误差,然后根据误差利用梯度下降法(里面运用了一些反向传播的知识,其实就是求偏导)的方法去调整我们的参数(也就是权重和偏执)

一些补充:看这篇文章,你能知道深度学习相较于以往的机器学习有哪些不一样的地方,有助于你更好地理解深度学习。

看到这里,其实你对神经网络应该有大致框架的了解,并且知道哪一些地方会做什么,接下来就是要学一些深层次的算法之类的。

比较重要的算法有梯度下降法,理解梯度是一个很重要的事情!要知其然也要知其所以然!!!,这个作者真真写的很好

梯度,是多元函数的概念,1元函数其实是没有的,因为单元函数其实就只有一个方向,那就是沿着x轴(啊啊啊,这么简单的道理,我当时硬是想不通,还好看了这篇文章,如此地愚蠢)
这篇文章我很喜欢,所以大概总结一下我从中学到的东西,以二元函数为例,我们一开始求偏导,其实也是只是求出了沿x方向和沿y方向的变化率,但是如果是二元函数(多元函数),他的方向已经不像1元函数那样局限在坐标轴上了,他可以有无穷无尽个方向,所以我们就定义了方向导数这个概念,方向导数就指明了各个方向的变化率,然后我们通过方向导数的式子可以看出(公式文章里有推导),刚好就是在方向为(对x的偏导,对y的偏导)时候,函数变大得最快,人们为了方便,所以就定义了这个方向为梯度------>以前都是因果倒置地学啊,我的高数终究是错付了!!!

梯度下降法广泛运用于反向传播,看这篇文章,将反向传播阐述得清楚明白

以上学完,当你已经入了门,这时候接触什么都会有一种触类旁通的感觉!这种感觉真的很奇妙~我推荐你去听听吴恩达老师的你一直会有一种恍然大悟的感觉,讲得很清楚明白

显示全文