Skip to content

@TOC

微信公众号:数学建模与人工智能

模型的保存/加载

  • torch.saves(state,dir) 保存/序列化
  • torch.load(dir) 加载模型

并行化

bash
torch.get_num_threads():
  • 获得用于并行化CPU操作的OpenMP线程数
bash
torch.set_num_threads(int):
  • 设定用于并行化CPU操作的OpenMP线程数

分布式

  • python在默认情况下只使用一个GPU,再多个GPU的情况下就需要使用pytorch提供的DataParallel
  • 单机多卡
  • 多机多卡

Tensor on GPU

用方法to()可以将Tensor在CPU和GPU(需要硬件支持)之间相互移动

在这里插入图片描述

Tensor的相关配置

bash
torch.is_tensor() #如果是pytorch的tensor类型返回true
torch.is_storage() #如果是pytorch的storage类型返回ture
torch.set_flush_denormal(mode) #防止一些不正常的元素产生
torch.set_default_dtype(d) #对torch.tensor()设置默认的浮点类型
torch.set_printoptions(precision=None,threshold=None,edgeitems=None,linewidth=None,profile=None) #设置printing的打印参数

Tensor与numpy的转换

bash
torch.from_numpy(ndarry)
a.numpy()

Released under the MIT License.