shape
编译 ONNX 模型
本篇文章译自英文文档Compile ONNX Models — tvm 0.13.dev0 documentation作者是 Joshua Z. Zhang更多 TVM 中文文档可访问 →Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。 | Apache TVM 中文站。本文将介绍如何用 Relay 部署 ONNX 模型。首先安装 ONNX 包,最便捷的方法推荐安装 protobuf 编译器:或参考官方网站: ONNX 模型下面示例中的超分辨率模型与 ONNX
阿里 BladeDISC 深度学习编译器正式开源
作者:朱凯 - 机器学习PAI团队 随着深度学习的不断发展,AI模型结构在快速演化,底层计算硬件技术更是层出不穷,对于广大开发者来说不仅要考虑如何在复杂多变的场景下有效的将算力发挥出来,还要应对计算框架的持续迭代。深度编译器就成了应对以上问题广受关注的技术方向,让用户仅需专注于上层模型开发,降低手工优化性能的人力开发成本,进一步压榨硬件性能空间。阿里云机器学习PAI开源了业内较早投入实际业务应用的动态shape深度学习编译器 BladeDISC,本文将详解 BladeDISC的设计原理和应用。BladeDISC是什
- 1