|
新盛娱乐游戏APP下载链接【xs10159.com】新盛娱乐游戏在线客服【飞机@xg88011】[backcolor=rgba(255, 255, 255, 0.9)][size=1.1em]确实有人这么做了。1997 年,还是那位 Hochreiter,和他的导师 Jurgen Schmidhuber 一起发明了一种改进版的 RNN,叫[backcolor=rgba(255, 255, 255, 0.9)][size=1.1em] [size=1.1em]LSTM(Long Short-Term Memory,长短期记忆网络)[backcolor=rgba(255, 255, 255, 0.9)][size=1.1em]。LSTM 在 RNN 的基础上加了一个"记忆门"的机制——就像给那杯墨水加了一个阀门,让 AI 可以选择性地记住重要信息、忘掉不重要的信息。 [backcolor=rgba(255, 255, 255, 0.9)][size=1.1em]LSTM 确实比原始 RNN 好了很多,它在 2010 年代的机器翻译、语音识别等任务中被广泛使用。但它依然有一个根本限制:还是一个词一个词地读。不管记忆力多好,如果你只能一个字一个字地读,读一篇一万字的文章,总需要一万步。你无法"跳着读"、无法"先看结尾再回头看开头"。 [backcolor=rgba(255, 255, 255, 0.9)][size=1.1em]更要命的是——因为必须一步一步地算,RNN 没办法并行计算。第 2 步必须等第 1 步算完才能开始,第 3 步必须等第 2 步算完……这意味着训练速度极慢。处理一个 1000 词的句子,需要 1000 个计算步骤,一步一步串行执行。
|