收藏:①极市开发DeepLearning ②Git使用

摘要: // 二分查找 def fetchBinarySearch(trainItems: Array[(String, Double)], target: Double): String = { // val trainItems = Array(("1", 0), ("2", 1), ("3", 3), 阅读全文
posted @ 2024-01-17 17:36 WSX_1994 阅读(12) 评论(0) 推荐(0) 编辑
摘要: # encoding: utf-8 import requests import urllib.request import numpy as np import os ,stat import pickle as pkl import cv2 as cv import xlrd def getIm 阅读全文
posted @ 2020-11-08 22:01 WSX_1994 阅读(209) 评论(0) 推荐(0) 编辑
摘要: 1 https://blog.csdn.net/qq_43265673/article/details/100086599 2 https://blog.csdn.net/qq_43265673/article/details/100086599 3 https://blog.csdn.net/qq 阅读全文
posted @ 2020-07-23 21:57 WSX_1994 阅读(136) 评论(0) 推荐(0) 编辑
摘要: 1、简介 对于tensorflow.contrib这个库,tensorflow官方对它的描述是:此目录中的任何代码未经官方支持,可能会随时更改或删除。每个目录下都有指定的所有者。它旨在包含额外功能和贡献,最终会合并到核心TensorFlow中,但其接口可能仍然会发生变化,或者需要进行一些测试,看是否 阅读全文
posted @ 2020-05-25 13:05 WSX_1994 阅读(2030) 评论(0) 推荐(0) 编辑
摘要: 损失函数汇总(全网最全) 一 损失函数简介 二 常见的损失函数 分类和回归任务中的损失函数为什么不同? 对于分类任务,为什么不采用平方损失/L1损失? 对于分类任务,为什么不采用平方损失/L1损失? 理论层面: ① 平方数损失函数假设最终结果都服从高斯分布,而高斯分布实际上是一个连续变量,并不是一个 阅读全文
posted @ 2020-05-21 14:39 WSX_1994 阅读(3293) 评论(0) 推荐(0) 编辑
摘要: JavaScript从入门到精通 转自: https://github.com/Eished/JavaScript_notes 视频连接:https://www.bilibili.com/video/BV1LW411Q7qV?p=9 目录: 以下记录了所有笔记:(代码连接:https://pan.b 阅读全文
posted @ 2020-05-05 10:09 WSX_1994 阅读(504) 评论(0) 推荐(0) 编辑
摘要: 图像处理初学者应该学习的100个问题-你都学会了吗? 转自:深度学习与NLP 本文整理了图像处理初学者应该需要了解的100个基础问题,涉及读取、显示图像、操作像素、拷贝图像、保存图像、灰度化(Grayscale)、二值化(Thresholding)、大津算法、HSV 变换、减色处理、平均池化(Ave 阅读全文
posted @ 2020-04-16 10:36 WSX_1994 阅读(494) 评论(0) 推荐(0) 编辑
摘要: CVPR 2020 共收录 1470篇文章,根据当前的公布情况,人工智能学社整理了以下约100篇,分享给读者。 代码开源情况:详见每篇注释,当前共15篇开源。(持续更新中,可关注了解)。 算法主要领域:图像与视频处理,图像分类&检测&分割、视觉目标跟踪、视频内容分析、人体姿态估计、模型加速、网络架构 阅读全文
posted @ 2020-04-14 17:04 WSX_1994 阅读(2978) 评论(0) 推荐(0) 编辑
摘要: 一行代码解决矩阵旋转(方法三)。 方法1: 坐标法 解释代码: 这里的坐标是不是很晕,这个是如何对应起来的呢? 1、首先我们把矩阵的每一圈看做一次操作(底下的红色圈代表一次调整) 对于宽度为n的我们需要 n/2次调整就可以结束。 这个次数为外层循环 K 2、对于每一次调整我们需要进行多次操作,因为每 阅读全文
posted @ 2019-07-26 16:35 WSX_1994 阅读(522) 评论(0) 推荐(0) 编辑
摘要: 包含三部分:1、WGAN改进点 2、代码修改 3、训练心得 一、WGAN的改进部分: 判别器最后一层去掉sigmoid (相当于最后一层做了一个y = x的激活) 生成器和判别器的loss不取log 每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c 不要用基于动量的优化算法(包括mo 阅读全文
posted @ 2019-07-26 10:07 WSX_1994 阅读(4570) 评论(0) 推荐(0) 编辑