上一页 1 ··· 200 201 202 203 204 205 206 207 208 ··· 367 下一页
摘要: JIT Compiler编译器 阅读全文
posted @ 2021-10-15 05:35 吴建明wujianming 阅读(113) 评论(0) 推荐(0)
摘要: Cache 与Memory架构及数据交互 阅读全文
posted @ 2021-10-14 05:12 吴建明wujianming 阅读(84) 评论(0) 推荐(0)
摘要: 自动微分原理与示例机器学习的同学在学习过程中会经常遇到一个问题,那就是对目标函数进行求微分,线性回归这类简单的就不说、复杂的如神经网络类那些求导过程。本文介绍了五种微分方式,最后两种才是自动微分。前两种方法求出了原函数对应的导函数,后三种方法只是求出了某一点的导数。假设原函数是f(x,y)=x2y+ 阅读全文
posted @ 2021-10-13 06:22 吴建明wujianming 阅读(901) 评论(0) 推荐(0)
摘要: AI多种并行算法 并行模型 模型并行( model parallelism ):分布式系统中的不同机器(GPU/CPU等)负责网络模型的不同部分 —— 例如,神经网络模型的不同网络层被分配到不同的机器,或者同一层内部的不同参数被分配到不同机器;[14] 数据并行( data parallelism  阅读全文
posted @ 2021-10-12 06:20 吴建明wujianming 阅读(615) 评论(0) 推荐(0)
摘要: LLVM与Clang局部架构与语法分析 Clang与LLVM LLVM整体架构,前端用的是clang,广义的LLVM是指整个LLVM架构,一般狭义的LLVM指的是LLVM后端(包含代码优化和目标代码生成)。 源代码(c/c++)经过clang--> 中间代码(经过一系列的优化,优化用的是Pass) 阅读全文
posted @ 2021-10-11 06:03 吴建明wujianming 阅读(879) 评论(0) 推荐(0)
摘要: LLVM语法语义指令特性 High Level Structure Module Structure LLVM 程序由Module's组成,每个 's 是输入程序的一个翻译单元。每个模块由函数,全局变量和符号表条目组成。模块可与 LLVM 链接器组合在一起,后者合并函数(全局变量)定义,解析前向声明 阅读全文
posted @ 2021-10-10 05:58 吴建明wujianming 阅读(632) 评论(0) 推荐(0)
摘要: AI中pass架构设计优化 Relay 和 TVM IR,包含一系列优化passes,可提高模型的性能指标,例如平均推理,内存占用,或特定设备的功耗。有一套标准优化,及特定机器学习的优化,包括常量折叠,死代码消除,算子布局更改,算子融合,缓冲区处理和循环转换等。这些passes中的每一个都构造为一个 阅读全文
posted @ 2021-10-09 05:56 吴建明wujianming 阅读(887) 评论(0) 推荐(0)
摘要: Relay IR表示 Relay IR简介本节介绍了 Relay IR——第二代 NNVM。期待两种背景的读者——具有编程语言背景的读者和熟悉计算图表示的,深度学习框架开发人员。简要总结了设计目标,讨论要点。• 支持传统的数据流式编程和转换。• 支持函数式作用域,let-binding,成为功能齐全 阅读全文
posted @ 2021-10-08 05:22 吴建明wujianming 阅读(500) 评论(0) 推荐(0)
摘要: TOPI简介 这是 TVM Operator Inventory (TOPI) 的介绍。TOPI 提供了比 TVM 具有更高抽象的 numpy 风格的,通用操作和调度。TOPI 如何在 TVM 中,编写样板代码。 from __future__ import absolute_import, pri 阅读全文
posted @ 2021-10-07 05:34 吴建明wujianming 阅读(976) 评论(0) 推荐(0)
摘要: Conda安装Glossary词汇表 https://docs.conda.io/projects/conda/en/latest/glossary.html#anaconda-glossary .condarc Activate/Deactivate environment Anaconda An 阅读全文
posted @ 2021-10-06 05:58 吴建明wujianming 阅读(92) 评论(0) 推荐(0)
上一页 1 ··· 200 201 202 203 204 205 206 207 208 ··· 367 下一页