现在使用的笔记本独立显卡940MX,比i7CPU快了大概5倍左右,但是在深度学习中依旧提升不明显。
最近跑的这几个NLP模型(从LSTM Seq2Seq到GRU到Attention),随着模型的复杂以及数据量的问题,大概测了时间。
- LSTM模型:CPU(30分钟),940mx(5分钟)
- GRU模型:同上
- Attention模型:CPU(没测),940mx(20分钟)
有时候我一觉醒来还在处理,慢得一批……
CoLab之前也有学习,但是总感觉比较繁琐,今天看了一篇博文 Colab 免费提供 Tesla T4 GPU,是时候薅羊毛了 ,竟然换成T4 GPU,果断试一下,将同样的Attention模型代码导入测试,1个迭代降到48秒……OK,我决定投靠CoLab……
目前还在学习中,因为使用的预训练模型比较小,CoLab下载速度也很快(包括Spacy的de和en语料,不知道墙了多少好东西啊……),之后要解决的是训练好的模型下载重载问题。今天试了模型重载,tensor数据有一点问题,可能是本地的语料库数据版本问题。