上一页 1 ··· 108 109 110 111 112 113 114 115 116 ··· 271 下一页

2024年1月19日

摘要: 官方: https://jax.readthedocs.io/en/latest/device_memory_profiling.html 阅读全文
posted @ 2024-01-19 14:18 Angry_Panda 阅读(41) 评论(0) 推荐(0)
摘要: 国产的huggingface: https://www.modelscope.cn/ 阅读全文
posted @ 2024-01-19 11:52 Angry_Panda 阅读(130) 评论(0) 推荐(0)

2024年1月18日

摘要: NVIDIA官方给出的说明: 可以知道,这个组件的作用是对NVIDIA的CUDA进程进行性能分析的,通过对这个组件的调用可以实现对CUDA进程的性能监测。 在使用深度学习框架时有时需要对运行的代码的CUDA部分进行性能分析,于是就会调用该库的接口,有时会报错: Could not load dyna 阅读全文
posted @ 2024-01-18 22:59 Angry_Panda 阅读(909) 评论(0) 推荐(0)
摘要: 官方文档: https://jax.readthedocs.io/en/latest/profiling.html 将jax代码的性能文件写入到文件夹中,并给出上传第三方网站的链接生成(https://ui.perfetto.dev/): import jax with jax.profiler.t 阅读全文
posted @ 2024-01-18 22:41 Angry_Panda 阅读(365) 评论(0) 推荐(1)
摘要: 使用Pallas为jax编写kernel扩展,需要使用JAX-Triton扩展包。由于Google的深度学习框架Jax主要是面向自己的TPU进行开发的,虽然也同时支持NVIDIA的GPU,但是支持力度有限,目前JAX-Triton只能在TPU设备上正常运行,无法保证在GPU上正常运行。 该结果使用k 阅读全文
posted @ 2024-01-18 21:11 Angry_Panda 阅读(168) 评论(0) 推荐(0)
摘要: 导出时间: 2024-01-18 21:00:37 星期四 python版本: Python 3.10.13 absl-py==1.4.0 accelerate==0.25.0 aiofiles==22.1.0 aiosqlite==0.19.0 anyio==4.2.0 argon2-cffi== 阅读全文
posted @ 2024-01-18 21:01 Angry_Panda 阅读(225) 评论(0) 推荐(0)
摘要: 相关: https://jax.readthedocs.io/en/latest/pallas/tpu.html 向量计算设备,如:GPU、TPU等,都是通过向量计算来进行加速的,因此在这类设备中进行向量计算的计算单元是成百上千的,但是进行结构控制的电路单元比较少,可以基本认为在向量设备中进行流程控 阅读全文
posted @ 2024-01-18 17:35 Angry_Panda 阅读(58) 评论(0) 推荐(0)
摘要: Google的TPU的Pallas无法使用jax的随机数生成 地址⚠: https://jax.readthedocs.io/en/latest/pallas/tpu.html 阅读全文
posted @ 2024-01-18 16:50 Angry_Panda 阅读(22) 评论(0) 推荐(0)
摘要: 地址: https://jax.readthedocs.io/en/latest/pallas/tpu.html TPU是原来进行矩阵计算加速的一个科学计算的设备,功能大致等同于NVIDIA的GPU的CUDA,但是功能上要更少,对矩阵计算能力更强。 TPU对数据进行运算时是存在基本操作的,如加、减、 阅读全文
posted @ 2024-01-18 16:43 Angry_Panda 阅读(48) 评论(0) 推荐(0)
摘要: Google的TPU的运算数据类型最高为32比特,也就是说TPU不支持double数据类型,浮点数类型最高支持float32 地址: https://cloud.google.com/tpu/docs/tpus?hl=zh-cn 阅读全文
posted @ 2024-01-18 16:37 Angry_Panda 阅读(81) 评论(0) 推荐(0)
上一页 1 ··· 108 109 110 111 112 113 114 115 116 ··· 271 下一页

导航