10 2021 档案

摘要:TensorFlow数据集(TFDS)项目使下载通用数据集变得非常容易,从小型数据集(如MNIST或Fashion MNIST)到大型数据集(如ImageNet)。该列表包括图像数据集、文本数据集(包括翻译数据集)以及音频和视频数据集。 TFDS没有和TensorFlow捆绑在一起,因此需要安装te 阅读全文
posted @ 2021-10-31 15:17 里列昂遗失的记事本 阅读(137) 评论(0) 推荐(0)
摘要:预处理输入特征 为神经网络准备数据需要将所有特征转换为数值特征,通常将其归一化等。特别是如果数据包含分类特征或文本特征,则需要将它们转换为数字。 在准备数据文件时,可以使用任何喜欢的工具(例如NumPy、pandas或Scikit-Learn)提前完成此操作。或者,可以在使用Data API加载数据 阅读全文
posted @ 2021-10-29 19:31 里列昂遗失的记事本 阅读(171) 评论(0) 推荐(0)
摘要:TFRecord格式 TFRecord格式是TensorFlow首选的格式,用于储存大量数据并有效读取数据。这是一种非常简单的二进制格式,只包含大小不同的二进制记录序列(每个记录由一个长度、一个用于检查长度是否受损的CRC校验和、实际数据 以及最后一个CRC校验和组成)。可以使用tf.io.TFRe 阅读全文
posted @ 2021-10-27 11:15 里列昂遗失的记事本 阅读(321) 评论(0) 推荐(0)
摘要:了解编码问题 虽然有一般性的UnicodeError异常,但是报告错误时几乎都会指明具体的异常:UnicodeEncoderError (把字符串转换成二进制序列时)或UnicodeDecoderError(把二进制序列转换成字符串时)。如果 源码的编码与预期不符,加载Python模块时还可能抛出S 阅读全文
posted @ 2021-10-27 10:35 里列昂遗失的记事本 阅读(160) 评论(0) 推荐(0)
摘要:基本的编解码器 Python自带了超过100中编解码器(codec,encoder/decoder),用于文本和字节之间相互转换。 每个编码器都有一个名称,如'uft_8',而且经常有几个别名,如果'uft8','uft-8'和'U8'。 这些名称可以传递给open()、str.encode()、b 阅读全文
posted @ 2021-10-25 13:42 里列昂遗失的记事本 阅读(212) 评论(0) 推荐(0)
摘要:数据API 整个数据API都围绕着数据集的概念。通常,使用的是逐步从磁盘中读取数据的数据集,但为了简单起见,使用 tf.data.Dataset.from_tensor_slices()在RAM中完全创建一个数据集合 import keras.activations import tensorflo 阅读全文
posted @ 2021-10-25 13:20 里列昂遗失的记事本 阅读(184) 评论(0) 推荐(0)
摘要:def cube(x): return x**3 cube(2) 8 import tensorflow as tf cube(tf.constant(2.0)) <tf.Tensor: shape=(), dtype=float32, numpy=8.0> 现在用tf.function()函数将此 阅读全文
posted @ 2021-10-24 18:41 里列昂遗失的记事本 阅读(110) 评论(0) 推荐(0)
摘要:七段数码管绘制系统时间(年,月,日,小时) 代码 import datetime # 引入时间库 import random import turtle # 引入海龟库 def drawLine(draw): # 绘制单段数码管 turtle.pendown() if draw else turtl 阅读全文
posted @ 2021-10-24 09:50 里列昂遗失的记事本 阅读(65) 评论(0) 推荐(0)
摘要:给定函数$f(x)=(6+x_1+x_2)^2+(2-3x_1-3x_2-x_1x_2)^2$,求在点$\hat{X}=(-4,6)^T$处的最速下降方向和牛顿方向 \[ f(x)=(6+x_1+x_2)^2+(2-3x_1-3x_2-x_1x_2)^2\\ \frac{\partial f}{\p 阅读全文
posted @ 2021-10-19 22:42 里列昂遗失的记事本 阅读(121) 评论(0) 推荐(0)
摘要:自定义损失函数 当训练回归模型时,训练集有噪声,均方误差MSE可能会对大误差惩罚太多而导致模型不精确。平均绝对误差MAE不会对异常值惩罚太多,但是训练可能要一段时间才能收敛,并且训练后的模型可能不太精确。这就是使用Huber损失而不是旧的MSE损失的好时机。 $$L_\delta(y,f(x))== 阅读全文
posted @ 2021-10-16 23:19 里列昂遗失的记事本 阅读(525) 评论(0) 推荐(0)
摘要:Python 3引入的不可变bytes类型和Python 2.6添加的可变bytearray类型 bytes和bytesarray对象的各个元素是介于0-255(含)之间的整数,而不像Python 2 的str对象那样是单个的字符。然而,二进制序列的切片始终是同一种类型的二进制序列,包含长度为1的切 阅读全文
posted @ 2021-10-10 21:20 里列昂遗失的记事本 阅读(62) 评论(0) 推荐(0)
摘要:编码与解码 “字符串”是个相当简单的概念:一个字符串是一个字符序列。问题出在“字符”的定义上。在2015年,“字符”的最佳定义是Unicode字符。因为,从Python3的str对象中获取的元素是Unicode字符,这相当于从Python2的unicode对象中获取的元素,而不是Python2的st 阅读全文
posted @ 2021-10-10 10:00 里列昂遗失的记事本 阅读(50) 评论(0) 推荐(0)
摘要:张量和操作 可以使用tf.constant()创建张量 from IPython.core.interactiveshell import InteractiveShell InteractiveShell.ast_node_interactivity='all' import tensorflow 阅读全文
posted @ 2021-10-09 20:46 里列昂遗失的记事本 阅读(187) 评论(0) 推荐(0)
摘要:Tensorflow快速浏览 高级深度学习API tf.keras tf.estimator 底层深度学习API tf.nn tf.losses tf.metrics tf.optimizers tf.train tf.initializers 自动微分 tf.GradientTape tf.gra 阅读全文
posted @ 2021-10-09 10:40 里列昂遗失的记事本 阅读(33) 评论(0) 推荐(0)
摘要:梯度下降 线性模型 $\hat{y}=x*w$来拟合学习时间$x$与考试分数$y$ \[ loss=(\hat{y}-y)^2=(x*w-y)^2\to cost=\frac1N\sum^N_{n=1}(\hat{y_n}-y_n)^2 \] 由图可知损失函数在$w=2.0$时,取得最小值。记损失函 阅读全文
posted @ 2021-10-08 19:41 里列昂遗失的记事本 阅读(113) 评论(0) 推荐(0)
摘要:Linear Model 机器学习 $x$为学习时间,$y$为学习该时间能够在考试中取得的分数 在这里来为这些数据寻求一个最好的模型 线性回归 Linear Model:\(\hat{y}=x*w\) 训练损失 (误差) MSE(Mean Squared Mean)均方误差: \[ loss=(\h 阅读全文
posted @ 2021-10-08 18:30 里列昂遗失的记事本 阅读(82) 评论(0) 推荐(0)
摘要:通过正则化避免过拟合。 深度神经网络通常拥有数万个参数,有时甚至有数百万个。这个深度神经网络带来了难以置信的自由度,意味着它们可以拟合各种各样的复杂数据集。 但是这种巨大的灵活性也使网络易于过拟合训练集。此时就需要正则化。 $\ell_1$和$\ell_2$正则化 可以使用$\ell_2$正则化来约 阅读全文
posted @ 2021-10-03 10:39 里列昂遗失的记事本 阅读(217) 评论(0) 推荐(0)