pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html
在 torch 中,以下对象可以持久化到硬盘,并可以通过相应的方法把这些对象持久化到内存中:
上述对象本质上最后都是保存为 Tensor。并且 Tensor 的保存和加载非常简单,使用 t.save
和 t.load
即可。
在 save/load 时可指定使用的 pickle 模块,在 load 时还可以把 GPU tensor 映射到 CPU 或者其他 GPU 上。
我们可以通过 t.save(obj, file_name)
保存任意可序列化的对象,然后通过 obj=t.load(file_name)
方法加载保存的数据。
对于 Module 和 Optimizer 对象,建议保存为对应的 state_dict,而不是直接保存整个 Module/Optimizer 对象。Optimizer 对象保存的是参数和动量信息,通过加载之前的动量信息,能够很有效地减少模型震荡。
import torch as t a = t.Tensor(3, 4) if t.cuda.is_available(): a = a.cuda(1) # 把 a 转为 GPU1 上的 tensor t.save(a, 'a.pth') # 加载为 b,存储于 GPU1 上(因为保存时 tensor 就在 GPU1 上) b = t.load('a.pth') # 加载为 c,存储于 CPU c = t.load('a.pth', map_location=lambda storage, loc: storage) # 加载为 d,存储于 GPU0 上 d = t.load('a.pth', map_location={'cuda:1': 'cuda:0'})
t.set_default_tensor_type('torch.FloatTensor') from torchvision.models import AlexNet model = AlexNet() # module 的 state_dict 是一个字典 model.state_dict().keys() t.save(model.state_dict(), 'alexnet.pth') model.load_state_dict(t.load('alexnet.pth'))
<All keys matched successfully>
optimizer = t.optim.Adam(model.parameters(), lr=0.1) t.save(optimizer.state_dict(), 'optimizer.pth') optimizer.load_state_dict(t.load('optimizer.pth'))
all_data = dict(optimizer=optimizer.state_dict(), model=model.state_dict(), info=u'模型和优化器的所有参数') t.save(all_data, 'all.pth') all_data = t.load('all.pth') all_data.keys()
dict_keys(['optimizer', 'model', 'info'])
本章介绍了 torch 的很多工具模块,主要涉及数据加载、可视化和 GPU 加速相关的内容,合理地使用这些模块可以极大地提升我们的编码效率。