序列建模基准和时间卷积网络(TCN) 该存储库包含Shaojie Bai,J。Zico Kolter和Vladlen Koltun完成的实验。 我们专门针对一整套综合任务,这些任务已被反复用来比较不同循环网络的有效性,并在循环网络的主场上评估一个简单,通用但功能强大(完全)的卷积网络。 实验是在PyTorch中完成的。 如果您发现此存储库有帮助,请引用我们的工作: @article{BaiTCN2018, author = {Shaojie Bai and J. Zico Kolter and Vladlen Koltun}, title = {An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling}, journal = {a
2021-10-29 11:28:25 15.92MB Python
1
使用卷积神经网络处理时间序列,属于最新的处理模型,非常适合处理时间序列
2021-09-28 16:08:04 11.06MB tcn TCN时间卷积 TCN模型 deeplearning
Keras TCN 与所有主要/最新的Tensorflow版本(从1.14到2.4.0+)兼容。 pip install keras-tcn Keras时间卷积网络。 [] 为什么选择时间卷积网络? 与具有相同容量的循环体系结构相比,TCN具有更长的内存。 在各种任务(序列MNIST,添加问题,复制内存,字级PTB ...)上,其性能始终优于LSTM / GRU体系结构。 平行度,灵活的接收场大小,稳定的梯度,训练所需的低内存,可变长度的输入... 放大的因果卷积层堆栈的可视化(Wavenet,2016) API 通常的方法是导入TCN层,并在Keras模型中使用它。 下面提供了一个回归任务的示例(对于其他示例,请参阅tasks/ ): from tensorflow . keras . layers import Dense from tensorflow . keras import Input , Model from tcn import TCN , tcn_full_summary batch_size , timesteps , input_dim = No
1
TCN关注 带有关注层的时间卷积网络 模型的概念主要类似于 。 但是在此模型中,注意力层位于卷积层的每个顶层。 并且注意大小与SNAIL不同。 结果 数据集:无需预处理的 关注:0.82 无注意:0.81 我对结果的看法 agnews上的大多数简单模型都显示出0.81的精度。 (在 ,“ 上进行了测试,并使用了基于单词的嵌入) 因此,基于字符的模型具有0.82的准确性似乎是值得的。
2021-09-14 19:21:06 16KB pytorch tcn tcn-attention Python
1
使用时间卷积网络进行回归预测以及分类的一些案例,很有帮助。
2021-08-13 14:12:37 2.46MB tcn 时间卷积网络 回归预测 分类
trdp官方开源代码,可在多平台编译运行(linux,VxWorks,windows,实时系统等),自己已经在linux平台基于该官方代码进行二次开发,完美!
2021-08-04 22:02:29 64.59MB trdp tcn ecn etb
1
配合使用
2021-07-24 09:08:16 10KB tcn 时间卷积
1
tcn函数
2021-07-24 09:08:16 17KB tcn
1
keras-tcn-master11.zip
2021-07-24 09:08:15 2.64MB tcn 时间卷积网络
列车TRDP通信,TRDP网络格式。TCNOpen协议规范,及应用场景,
2021-07-04 17:19:55 604KB TRDP TCNopen
1