李沐提倡“读三遍”。
第一遍粗筛论文;第二遍精筛论文,保留适合自己的且高质量的论文;第三遍是最后一遍,精读论文。
第一遍:只看论文的Title, Authors、Abstract和Conclusion的内容,以及方法设计和测试结果中的图表。这一遍下来有了对论文研究什么问题,使用什么方法,效果怎么样有了初步的把握。根据论文与自己方向的契合程度以及方法和结果的质量决定是否要读第二遍。
李沐提倡“读三遍”。
第一遍粗筛论文;第二遍精筛论文,保留适合自己的且高质量的论文;第三遍是最后一遍,精读论文。
第一遍:只看论文的Title, Authors、Abstract和Conclusion的内容,以及方法设计和测试结果中的图表。这一遍下来有了对论文研究什么问题,使用什么方法,效果怎么样有了初步的把握。根据论文与自己方向的契合程度以及方法和结果的质量决定是否要读第二遍。
为了项目协作以及分享,我们需要将模型(及其参数和数据集)保存到某些平台上。由于GitHub免费用户的LFS文件大小限制为2GB,对于一些较大的数据集或模型不够用,所以笔者选择将模型保存到Hugging Face。
模型训练的时间通常很长,我们希望能在断开ssh连接后,模型依然在远程服务器上训练,并且希望在重新建立ssh连接后查看训练进度。这样,我们就可以将等待模型训练或推理的时间变成更有意义的时间😊
通常来说,训练数据集、验证数据集、测试数据集、模型参数需要占用很多磁盘空间,数据预处理、模型的训练与推理对CPU、内存、显卡性能与数量、显存、传输带宽都有较高的要求,所以模型一般部署在远程服务器上。笔者选择将模型部署在AutoDL的云服务器上,在环境准备完成后,就可以从远程仓库拉取模型、参数以及数据集进行训练和推理了。