会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
wanzhouyi
博客园
首页
新随笔
联系
订阅
管理
2024年7月10日
业务开发时,接口不能对外暴露怎么办?
摘要: 在业务开发的时候,经常会遇到某一个接口不能对外暴露,只能内网服务间调用的实际需求。面对这样的情况,我们该如何实现呢?今天,我们就来理一理这个问题,从几个可行的方案中,挑选一个来实现。 1. 内外网接口微服务隔离 将对外暴露的接口和对内暴露的接口分别放到两个微服务上,一个服务里所有的接口均对外暴露,另
阅读全文
posted @ 2024-07-10 22:27 周XX
阅读(85)
评论(0)
推荐(0)
2023年12月6日
数海拾遗-微积分中用于求导的链式法则
摘要: 以理服人 链式法则是微积分中用于求导的重要法则,它适用于复合函数的导数求解。 设有两个函数:y = f(u) 和 u = g(x),则复合函数 y = f(g(x))。 我们要求导复合函数 y 对于 x 的导数,即求 dy/dx。 根据链式法则,dy/dx = dy/du * du/dx。 其中,d
阅读全文
posted @ 2023-12-06 20:20 周XX
阅读(744)
评论(0)
推荐(0)
2023年11月15日
线性回归-梯度下降
摘要: 上了篇尝试了利用穷举法来求较好的模型,但是穷举法的效率很低。还有一种更高效的方法,梯度下降法(Gradient Descent)。 算法过程 代码实现 x = [338., 333., 328., 207., 226., 25., 179., 70., 208., 606.] y = [640.,
阅读全文
posted @ 2023-11-15 23:33 周XX
阅读(59)
评论(0)
推荐(0)
线性回归-穷举法
摘要: 样本:有十个点 假设有十个点,用matplotlib画出来 import matplotlib.pyplot as plt cp = [338., 333., 328., 207., 226., 25., 179., 70., 208., 606.] y = [640., 633., 619., 3
阅读全文
posted @ 2023-11-15 00:17 周XX
阅读(33)
评论(0)
推荐(0)
2023年11月8日
numpy.meshgrid() in Python
摘要: numpy.meshgrid函数用于从表示笛卡尔索引或矩阵索引的两个给定一维数组中创建矩形网格。网格函数是从MATLAB中得到启发的。 语法 numpy.asarray(arr,dtype=None,order=None) 参数 x1, x2,…, xn: array_like 表示网格坐标的一维数
阅读全文
posted @ 2023-11-08 22:53 周XX
阅读(105)
评论(0)
推荐(0)
numpy.asarray() in Python
摘要: numpy.asaray()函数用于将输入转换为数组。输入可以是列表、元组列表、元组、元组的元组、列表和数组的元组。 语法 numpy.asarray(arr,dtype=None,order=None) 参数 arr:[array_like]输入数据,可以转换为数组的任何形式。这包括列表、元组列表
阅读全文
posted @ 2023-11-08 00:20 周XX
阅读(97)
评论(0)
推荐(0)
2023年6月5日
2.4 Transform
摘要: 通常而言,数据不会以处理好的形式出现,所以我们需要在训练前对数据进行预处理,以适应训练 所有 TorchVision 的 Dataset 都会有两个参数—— transform 用于修改特征,target_transform 用于修改标签——它们接受包含转换逻辑的可调用对象(其实就是接受函数对象)。
阅读全文
posted @ 2023-06-05 23:37 周XX
阅读(54)
评论(0)
推荐(0)
2023年4月10日
2.3 DataSet和DataLoader
摘要: Dataset 和 DataLoader 用于处理数据样本的代码可能会变得凌乱且难以维护;理想情况下,我们希望数据集代码与模型训练代码解耦,以获得更好的可读性和模块化。PyTorch提供的torch.utils.data.DataLoader 和 torch.utils.data.Dataset允许
阅读全文
posted @ 2023-04-10 00:25 周XX
阅读(142)
评论(0)
推荐(0)
2023年4月8日
2.2 张量
摘要: 张量 张量是一种特殊的数据结构,与数组和矩阵非常相似。 在 PyTorch 中,我们使用张量对模型的输入和输出以及模型的参数进行编码。 张量类似于 NumPy 的 ndarray,此外张量可以在 GPU 或其他硬件加速器上运行。事实上,张量和 NumPy 数组通常可以共享相同的底层内存,无需复制数据
阅读全文
posted @ 2023-04-08 23:59 周XX
阅读(102)
评论(0)
推荐(0)
2.1 pytorch快速入门
摘要: 本文主要介绍机器学习中常见任务的API。 处理数据 PyTorch有两个处理数据的方式:torch.utils.data.DataLoader 和torch.utils.data.Dataset 。 Dataset存储样本及其相应的标签, DataLoader 在Dataset的外层用迭代器进行包装
阅读全文
posted @ 2023-04-08 22:41 周XX
阅读(223)
评论(0)
推荐(0)
下一页
公告