4 月 28 日,机器之心联合华为昇腾学院开设的线上公开课《轻松上手开源框架 MindSpore》第三课完成,华为云与计算 BG 计算开源生态部工程师王辉为大家带来了主题分享《MindSpore代码流程分析》,第三课回顾视频:www.bilibili.com/video/BV14Q…
在第三课的 QA 环节中,有一些问题被大家广泛提到,王辉讲师再次做了精选与编辑,供大家参考。
Q1:怎么导出 Atlas200dk 可用模型?
我理解 Atlas200dk 如果是用昇腾 310 芯片的话,当我们选择 GEIR 格式做模型导出的时候,系统会导出支持昇腾 310 推理的模型,这种情况就能满足这位同学提到的导出 Atlas 200dk 可用模型的要求。
Q2:MindSpore 什么时候支持 win10?
很高兴地向大家宣布,MindSpore CPU 版本当前已经支持在 win10 系统中安装。我本地的环境就是 win10 系统,上面安装了 MindSpore;如果大家想了解 MindSpore CPU 版本在 win10 系统上的具体安装步骤,可以查阅 MindSpore 官网教程(www.mindspore.cn/tutorial/zh…)进行尝试。
Q3:使用 MS 建立训练模型代码能有多简单?
除去网络的定义,MindSpore 提供了 Model 类的接口,大多数场景只需几行代码就可完成模型训练。当然我没有尝试过使用 TF 或 PyTorch 最简单用几行实现模型的训练,但我在开始接触 MindSpore 的时候感觉已经很简单了。
Q4:ModelArts 中能使用 MS?
大家可以查阅 MindSpore 官网教程(www.mindspore.cn/tutorial/zh…),教程中详细展示了用户如何使用 ModelArts 来做 MindSpore 的模型训练。
Q5:ModelArts 中能编译测试 CPU 算子?
当前 ModelArts 只提供了 Ascend910 环境,因而不支持 CPU 算子的编译测试。
Q6:MindSpore 对 GPU 的支持怎么样了?有具体的 Roadmap 吗?
当前 MindSpore modelzoo 中有部分模型已经支持 GPU 的训练和推理,其他模型也在不断地进行完善;在分布式并行训练方面,MindSpore 当前支持 GPU 多卡的训练。至于具体的 Roadmap, 大家可以访问 MindSpore 官网(www.mindspore.cn/docs/zh-CN/…)和项目 Release notes(gitee.com/mindspore/m…)进行查阅。
大家后续如有更多问题,欢迎关注 MindSpore 的gitee和github,随时提 issue,官方人员将及时为大家解答:
4月30日 20:00 第四课《k8s MindSpore Operator 介绍》
课程详情请点击:mp.weixin.qq.com/s/bnbZoxlKN…