深度学习没有GPU怎么办?

mac2025-08-26  9

 方案内容缺点方案一买矿卡 P106-100,闲鱼上不写运费的都是默认顺丰到付,我试了下,已经起纠纷了.矿卡损耗极大,买这个基本接盘,现在还在和卖家磨嘴皮子退货方案二尝试kaggle notebook训练中途把模型传到git lfs,因为是大型文件,所以不能github,只能是git lfsgit的机制是会记录历史数据,然后git lfs只有1G的空间,你想要释放git lfs的存储空间的办法只有一个,那就是删除整个repository才能恢复,而且也不是立刻恢复,恢复git lfs的存储空间需要几分钟到十几分钟的延迟.方案三找人借显卡

借到是好事,但是如果你最后被架空了,你就没法solo参赛了,毕竟显卡在别人手上.

毕竟solo参赛和组队参赛的含金量还是不一样的.

方案四使用colab

经常断,而且对于上百G数据集的Kaggle比赛,colab的磁盘只有340+G,显然无能为力.

方案五

使用GCP

GCP需要能支付外币的卡来注册,虽然能激活一年三百美金,但是年费一年就是100+了.

而且GCP需要升级账户才能继续使用,否则试用时间只有一天.

并且使用科学上网也很难顺利打开GCP,要缓冲好久.

如果跟同学借visa卡显然人家也不是那么愿意借的,设想下,你愿意自己实名的visa卡被别人绑定在一个网站上不?

不过GCP上面的visa是可以自己决定是否移除的.

方案六租用GPU服务器

虽然有区块链相关的GPU分布式网站可以供你租用,费用是5毛/时,

但是一旦断开,所有数据全部清零,如果参加RSNA这种比赛,数据集156G,光下载就要下载一天一夜.

如果走淘宝2块钱/时,费用不可想象,因为训练至少几十个小时.

方案七百度的paddlepaddle不支持apt,不支持tensorflow以及pytorch,很难用,羊毛不太好褥.方案八直接用kaggle的notebook有GPU提供,但是很容易断开方案九使用百度网盘在kaggle notebook上传中间模型

根据[1],百度云api接口已经关闭.

百度网盘的原名是百度云

方案十使用Google Drive API在kaggle notebook上传中间模型Google Drive api无法在kaggle notebook上传中建模型,会转接到localhost最终无法连接.

 

 

Reference:

[1]https://segmentfault.com/q/1010000005066656/a-1020000005068411

 

 

 

 

 

最新回复(0)