LSTM+Attention+Prediction

不管现实多么惨不忍睹,都要持之以恒地相信,这只是黎明前短暂的黑暗而已。不要惶恐眼前的难关迈不过去,不要担心此刻的付出没有回报,别再花时间等待天降好运。真诚做人,努力做事!你想要的,岁月都会给你。LSTM+Attention+Prediction,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com,来源:原文

从Github上整理了几个关于时间序列预测的项目,简单记录一下:

@@@tensorflow
Time-series-prediction:Codebase for “Time-series prediction” with RNN, GRU, LSTM and Attention
https://github.com/jsyoon0823/Time-series-prediction
注:Attention class + GRU

@@Keras
Keras Attention Mechanism:Attention mechanism Implementation for Keras.
使用Keras实现 基于注意力机制(Attention)的 LSTM 时间序列预测
https://github.com/philipperemy/keras-attention-mechanism
使用Keras实现 基于注意力机制(Attention)的 LSTM 时间序列预测

@tensorflow
convlstm_Internet_traffic_prediction
https://github.com/EchoQer/convlstm_Internet_traffic_prediction
注:Encoder+ConvLSTMCell+Decoder

@tensorflow
AR-LSTMs:Predicting Transportation Demand based on AR-LSTMs Model with Multi-Head Attention
https://github.com/ncu-dart/AR-LSTMs
注:encoder_rnn_lstm+decoder_rnn_lstm+multihead_attention

@
LSTM_Attention
https://github.com/ningshixian/LSTM_Attention
注:各种Attention的model

@@
Stock Prediction Model using Attention Multilayer Recurrent Neural Networks with LSTM Cells
https://github.com/shoumo95/Stock_Prediction_Model_using_Attention_Multilayer_RNN_LSTM
注:这里的注意力机制使用Tensorflow中的AttentionCellWrapper实现。

attn_cell =tf.contrib.rnn.AttentionCellWrapper(cell=stacked_cell,attn_length=attn_win_size,state_is_tuple=False)

@Pytorch
Emotions-Predictions: Emotions prediction using RNN with LSTM cells and Attention Mechanisms.
https://github.com/ismail-mebsout/Emotions-Predictions
注:EncoderRNN+Attention Decoder

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/162902.html

(0)
飞熊的头像飞熊bm

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!