摘要:
TF16 是指 TensorFlow 的混合精度(Mixed Precision)训练中使用的 16 位浮点数格式。它通常与 FP16(16 位浮点数) 和 BF16(Brain Floating Point 16 位浮点数) 相结合使用。TF16 是 TensorFlow 中对这些 16 位浮点格 阅读全文
posted @ 2024-08-19 15:57
海_纳百川
阅读(232)
评论(0)
推荐(0)
摘要:
bfloat16 (bf16),即Brain Floating Point 16-bit,是一种16位浮点数格式,主要用于深度学习和机器学习中的高效计算。它是在Google的TPU(Tensor Processing Unit)硬件中引入的,并已被其他硬件架构(如NVIDIA A100、Intel 阅读全文
posted @ 2024-08-19 15:36
海_纳百川
阅读(2026)
评论(0)
推荐(0)

浙公网安备 33010602011771号