【深度学习】前馈神经网络(FNN)和反馈神经网络(RNN)

【深度学习】前馈神经网络(FNN)和反馈神经网络(RNN)简单来说 前馈神经网络可以看做是一个通过简单非线性函数的多次复合的函数 实现输入空间到输出空间的复杂映射 反馈神经网络 消失梯度问题 通过 Gates 学习长期依赖关系 长短期记忆和 Gated RNN

欢迎大家来到IT世界,在知识的湖畔探索吧!

今天更新的部分是深度学习中的前馈神经网络和反馈神经网络(Feedforward Neural Network and Recurrent Neural Network)。

简单来说,前馈神经网络可以看做是一个通过简单非线性函数的多次复合的函数,实现输入空间到输出空间的复杂映射。前馈神经网络包括全连接前馈神经网络和卷积神经网络

反馈神经网络相较于前馈神经网络,增加了反馈机制。反馈神经网络中神经元不但可以接收其他神经元的信号,而且可以接收自己的反馈信号。

和前馈神经网络相比,反馈神经网络中的神经元具有记忆功能,在不同时刻具有不同的状态。反馈神经网络中的信息传播可以是单向也可以是双向传播,因此可以用一个有向循环图或者无向图来表示。

前馈神经网络

【深度学习】前馈神经网络(FNN)和反馈神经网络(RNN)

FNN 前馈神经网络

前馈神经网络特点:

固定尺寸输入,无记忆功能,可处理可变长度序列,保持原有序列顺序,序列共享参数。

反馈神经网络

【深度学习】前馈神经网络(FNN)和反馈神经网络(RNN)

RNN 反馈神经网络

前馈神经网络:渐变梯度下降;

反馈神经网络:消失梯度问题 ➡️ 通过Gates学习长期依赖关系 ➡️ 长短期记忆(Long short term memory LSTM)和 Gated RNN

【深度学习】前馈神经网络(FNN)和反馈神经网络(RNN)

N-grams语言模型(N-grams Language Model N-grams ML)

—— 通过n个单词块预测下一个出现的单词(N-grams:n个连续单词块)

利用统计单词出现次数(频率)计算单词出现概率,计算概率分布。

问题1: 如果单词出现次数为0(分子为0或分母为0)应该如何处理》

稀疏问题(分子为0)➡️ 为每一个不常出现但有效的单词赋予一个较小概率。

预测单词之前的单词块未出现过(分母为0)➡️ 计算单词块n-1的次数,作为分母。

【深度学习】前馈神经网络(FNN)和反馈神经网络(RNN)

【深度学习】前馈神经网络(FNN)和反馈神经网络(RNN)

Use RNN 学习语言模型(LM)

通过RNN来学习语言模型。

优势:可处理不同长度的单词块;可追踪之前的步骤信息;独立于输入长度,模型参数固定

劣势:计算时间太长;实际应用中,很难追踪长时间步骤

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/87729.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们YX

mu99908888

在线咨询: 微信交谈

邮件:itzsgw@126.com

工作时间:时刻准备着!

关注微信