不知不觉,我们已经更新到第六篇关于深度学习词汇的介绍了,今天将是最后一篇~本系列的传送门如下:
深度学习词汇表(一)
深度学习词汇表(二)
深度学习词汇表(三)
深度学习词汇表(四)
深度学习词汇表(五)
随机梯度下降SGD
随机梯度下降是一种基于梯度优化的算法,用于在训练过程中学习网络参数。通常通过反向传播算法计算梯度。在实际应用中,人们使用SGD的迷你批处理版本,通过基于批处理而非单个样本进行参数更新,从而提升计算效率。针对普通SGD的扩展包括Momentum、Adagrad、rmsprop、Adadelta或Adam等。
SOFTMAX函数SoftMax函数常用于将原始分数向量转换为#%#$#%@%@%$#%$#%#%#$%@_40850c++ab8cdabc6868888fd85808d0e输出层的类概率,用于分类。它通过指数化并除以一个标准化常数来标准化分数。如果需要处理大量类别,如机器翻译中的词汇表,计算标准化常数的开销会很大。提高计算效率的方法包括分层SoftMax或使用基于采样的损失函数,如NCE。
TENSORFLOWTensorFlow是一个开源的c++ /Python库,用于通过数据流图进行数值计算,特别是深度神经网络。它由谷歌开发。在设计上,它与Theano最为相似,比Caffe或Keras更低级。
THEANOTheano是一个python库,允许定义、优化和评估数学表达式。它包含许多深度神经网络的构建块。Theano是一个低级库,类似于TensorFlow。更高级别的库包括Keras和Caffe。
梯度消失问题VANISHING GRADIENT PROBLEM梯度消失问题在非常深的神经网络中出现,通常是循环神经网络,它使用的激活函数的梯度往往很小(在0到1的范围内)。由于这些小梯度在反向传播过程中会成倍增加,它们通常会在整个层中“消失”,阻止网络学习长期依赖性。解决这一问题的方法包括使用像ReLUs这样的不受小梯度影响的激活函数,或者使用像LSTMs这样的结构来显式对抗梯度消失。与之相对的问题称为爆炸梯度问题。
VGG模型VGG模型在2014年ILSVRC竞赛中获得第二名,仅次于GoogLeNet。然而,VGG模型在多个迁移学习任务中的表现优于GoogLeNet。而且,在从图像中提取CNN特征时,VGG模型是首选算法。其缺点是参数量达到140M,需要更大的存储空间,但该模型具有很高的研究价值。VGG模型由16-19个权重层组成,使用3×3和1×1的小卷积滤波器。
WORD2VECword2vec是一种通过预测文档中单词的上下文来学习单词嵌入的算法和工具。所得到的单词向量具有一些有趣的属性,例如vector(‘queen’)~=vector(‘king’)-vector(‘man’)+vector(‘woman’)。学习这些嵌入可以使用两种不同的目标:Skip-Gram目标试图从一个单词预测其上下文,CBOW目标试图从上下文预测一个单词。
本文到此结束,我保证真的没有(七)了。
End

以上就是深度学习词汇表(六)的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号