01 2021 档案
摘要:源自:第四卷 念念有词 ####易错词 morden modern 现代的 nowdays nowadays 现在 ####不可数名词 furniture 家具 equipment 设备 ... ####常用同义词替换 |词义|同义词| | | | |人们| people / the public
阅读全文
posted @ 2021-01-30 14:28
kyshan
摘要:##写作时避免重复 若要表达同一个意思是,可变化句式,变为被动句式,非谓语句式等等(需要积累)。 如:Children should wear school uniforms. →(被动) School uniforms should be worn. →(非谓语) It is nice for s
阅读全文
posted @ 2021-01-25 21:28
kyshan
摘要:1、《神经网络》https://www.deeplearningbook.org/ 2、tensorflow playground上的双螺旋问题(请参阅此帖子以了解有关此示例的更多信息。) 3、图片转换为URLhttps://sm.ms/ 4、脉动阵列 - 因Google TPU获得新生https:
阅读全文
摘要:##TPU的目标--快速运行神经网络的推理环节 运行受过训练的神经网络以使用标签对数据进行分类或估计某些缺失值或将来值的过程称为推理。TPU的目标是加速神经网络的推理环节。为了进行推理,神经网络中的每个神经元都进行以下计算: 1、将输入数据(x)乘以权重(w)以表示信号强度 2、添加结果汇总神经元的
阅读全文
摘要:##CPU、GPU、TPU区别 ###CPU CPU的最大好处是它的灵活性。采用冯·诺依曼架构。但是,由于CPU如此灵活,因此硬件在从软件读取下一条指令之前,并不总是知道下一步的计算。 对于每次计算,CPU必须将计算结果存储在CPU内部的内存中(所谓的寄存器或L1高速缓存)。 这种内存访问成为冯诺依
阅读全文
摘要:##参考链接 1、博客园设置简约主题https://www.cnblogs.com/saoqiang/p/12907270.html#3561513153 2、Github链接https://github.com/esofar/cnblogs-theme-silence 3、部署指南https://
阅读全文
摘要:TPU--Tensor Processing UnitTM-张量处理单元 TPU的核心 是一个65,536的8位MAC矩阵相乘单元, 提供了92 TeraOps/秒(top)的峰值吞吐量和 一个大的(28 MiB)软件管理的片上存储器。 量子化 将浮点数转换为狭窄的整数(通常只有8位)(这对于推断
阅读全文
摘要:主要针对三种计算层(不同的层都可以讲计算划分为2或3个计算阶段): 1、分类器层:突出*输入;乘积求和;激活函数sigmoid;以Tii、Tnn划分tile 2、卷积层:计算阶段相同,只是激活函数可能不同;以Tx、Ty划分tile3、池化层:没有乘积的操作,可以是求最大池化和平均池化;以Tx、Ty划
阅读全文
摘要:参考:https://blog.csdn.net/foneone/article/details/103984895 argparse库是一个存储参数库,可以用来进行模型训练过程中的参数保存作为一个整体,以便于使用和更改。 1、创建 import argparse parser = argparse
阅读全文
摘要:从目录中读入文件os.walk()函数 from PIL import Image import os import glob for root, dirs, files in os.walk(".", topdown=False): print(len(files)) python的工作环境和你要
阅读全文

浙公网安备 33010602011771号