上一页 1 2 3 4 5 6 ··· 13 下一页
摘要: 本文介绍霍夫变换Hough Transform,并介绍其在直线检测和三维平面检测的应用。 霍夫变换 霍夫空间 我们把一条直线y=kx+q变换为:q = -xk + y, 然后绘制出关于k和q坐标系下的方程,可以得到一个点。 相应的,q = -xk + y 这条直线也可以转换为点(x, y),这里的 阅读全文
posted @ 2022-07-05 21:11 Asp1rant 阅读(487) 评论(0) 推荐(0) 编辑
摘要: 本文参考:https://zhuanlan.zhihu.com/p/24810318 什么是Batch Normalization Normalization的局限性 上篇博客说道Normalization让数据落到制定区间。 在神经网络中, 数据分布对训练会产生影响. 比如某个神经元 x 的值为1 阅读全文
posted @ 2022-06-20 20:40 Asp1rant 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 在ML中Standardization, Regularization, Normalization是需要经常用到的概念。本文介绍三者的不同。 ## 核心区别 - Standardization和Normalization是数据预处理技术,而Regularization是用来提高模型性能的 - - 阅读全文
posted @ 2022-06-15 20:30 Asp1rant 阅读(492) 评论(0) 推荐(0) 编辑
摘要: 本文参考自:Kaggle 数据亦来源该页 样本中的数据缺失是ML界非常常见的问题,本文就这问题进行讨论。 使用 MissingNo 查看数据 import pandas as pd import numpy as np import tensorflow as tfimport missingno 阅读全文
posted @ 2022-06-13 20:59 Asp1rant 阅读(397) 评论(0) 推荐(0) 编辑
摘要: 本章介绍Keras.loss,损失函数 从功能上分,可以分为以下三类: Probabilistic losses,主要用于分类 Regression losses, 用于回归问题 Hinge losses, 又称"maximum-margin"分类,主要用作svm,最大化分割超平面的距离 损失函数的 阅读全文
posted @ 2022-06-03 21:55 Asp1rant 阅读(1558) 评论(0) 推荐(0) 编辑
摘要: 本文介绍tf.Keras中最常用的模型结构Sequential模型,并分享一个Sequential模型实例 Sequential 模型 Sequential模型是Keras中最常用的模型,是一个线性、顺序的模型。 特点是模型的每一层都拥有一个唯一的输入tensor和输出tensor。 构建一个Seq 阅读全文
posted @ 2022-05-26 21:06 Asp1rant 阅读(1049) 评论(0) 推荐(0) 编辑
摘要: 本文记一下如何用typescript写的前端来上传/下载文件。 上传 上传通常用一个file类型的input来实现,再typescript中我们可以模拟这样一个dom: function loadFileCommand(): void => { const input = document.crea 阅读全文
posted @ 2022-05-17 19:39 Asp1rant 阅读(1022) 评论(0) 推荐(0) 编辑
摘要: 本章介绍如何利用TF中的Module和Layer构建模型Model。 Model在TF中的定义: 可以用来计算Tensor的函数(前向传递) 含有一些可以用于训练的变量 Module 大多数模型可以视为Layer的集合,在TensorFlow中常用的Keras和Sonnet,都基于tf.Module 阅读全文
posted @ 2022-05-16 19:55 Asp1rant 阅读(63) 评论(0) 推荐(0) 编辑
摘要: Graph tf.graph在TensorFlow中主要用于性能优化。我们用TensorFlow写代码时可以通过python的内部机制进行计算,这种操作称为Eagerly。而Graph操作会运用TensorFlow所内含的数据计算模块,相比之下更有效率。 Graph是用于tf.Operation操作 阅读全文
posted @ 2022-05-12 21:46 Asp1rant 阅读(164) 评论(0) 推荐(0) 编辑
摘要: sklearn.compose.ColumnTransformer可以用来构建一个数据转换器,用允许单独转换输入的不同列或列子集,并且每个转换器生成的特征将串联起来以形成单个特征空间。这对于异构或列式数据非常有用,可以将多个特征提取机制或转换组合到单个转换器中。 配合sklearn.pipeline 阅读全文
posted @ 2022-05-07 17:25 Asp1rant 阅读(393) 评论(0) 推荐(0) 编辑
摘要: 本章学习TensorFlow中的自动微分: https://tensorflow.google.cn/guide/autodiff 自动微分的含义 参考: https://zhuanlan.zhihu.com/p/61103504 https://en.wikipedia.org/wiki/Auto 阅读全文
posted @ 2022-05-05 19:52 Asp1rant 阅读(227) 评论(0) 推荐(0) 编辑
摘要: Tensor和Variable都是TensorFlow框架中的基本数据单元,本文详细介绍两者的用法。 参考: https://tensorflow.google.cn/guide/tensor https://tensorflow.google.cn/guide/variable Tensor 基础 阅读全文
posted @ 2022-05-01 17:58 Asp1rant 阅读(373) 评论(0) 推荐(0) 编辑
摘要: 下面介绍如何将Python Notebook (.ipynb)转换成Markdown文件(.md) 首先安装nbconvert: pip install nbconvert 然后cd到文件的目录下,用下命令: jupyter nbconvert --to markdown **.ipynb 阅读全文
posted @ 2022-05-01 15:31 Asp1rant 阅读(127) 评论(0) 推荐(0) 编辑
摘要: 开始学习TensorFlow:https://www.tensorflow.org/tutorials TensorFlow的官网上有Tutorial和Guide两部分教程,Guide主要介绍一些概念性的东西,Tutorial则更加通过实例来介绍TensorFlow的使用。 本篇介绍TensorFl 阅读全文
posted @ 2022-04-28 19:41 Asp1rant 阅读(288) 评论(0) 推荐(0) 编辑
摘要: 本文介绍MLP(Multi-Layer Perception的理论以及实践) 参考: https://zhuanlan.zhihu.com/p/63184325 https://en.wikipedia.org/wiki/Multilayer_perceptron 一. 理论 MLP是最基本的神经网 阅读全文
posted @ 2022-04-18 20:09 Asp1rant 阅读(1563) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 13 下一页