会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Loading
Uzuki
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
下一页
2023年5月9日
一种基于虚拟摄像头、NDI、OBS以及yolo的多机视觉目标检测方案
摘要: 一种基于虚拟摄像头、NDI、OBS以及yolo的多机视觉目标检测方案 绪论 近来为了实现某种实时展示效果,笔者希望通过一套方案实现在两台主机上分别运行仿真平台以及视觉深度学习算法。透过对当下较为流行的几种方案的调研,笔者最后决定了采用OBS采集并透过NDI协议在局域网内进行广播,再将NDI推到虚拟摄
阅读全文
posted @ 2023-05-09 11:18 Uzuki
阅读(978)
评论(0)
推荐(0)
2021年3月7日
数据挖掘 | 数据隐私(4) | 差分隐私 | 差分隐私概论(下)(Intro to Differential Privacy 2)
摘要: L4-Intro to Differential Privacy 拉普拉斯机制(Laplace Mechanism) 上一节课中,我们讨论了随机响应,这是一种适合于单个位的隐私化。这种算法一般来说并不直接也误差较大。今日所关注的是拉普拉斯机制,可以直接应用于任意一种类型的数字查询。在引入拉普拉斯机制
阅读全文
posted @ 2021-03-07 21:15 Uzuki
阅读(1299)
评论(0)
推荐(0)
数据挖掘 | 数据隐私(3) | 差分隐私 | 差分隐私概论(上)(Intro to Differential Privacy 1)
摘要: L3-Intro to Differential Privacy 从这节课开始就要介绍差分隐私算法了。 随机响应(Randomized Response) 场景提出 假若你是某一门课的教授,你希望统计一门课有多少学生作弊。显然你通过直接的问卷派发手段,学生不太可能会老老实实地上交真实答案。为此我们需
阅读全文
posted @ 2021-03-07 21:09 Uzuki
阅读(1107)
评论(0)
推荐(0)
数据挖掘 | 数据隐私(2) | 差分隐私 | 数据重构化攻击(Reconstruction Attacks)
摘要: L2-Reconstruction Attacks 本节课的目的在于正式地讨论隐私,但是我们不讨论算法本身有多隐私,取而代之去讨论一个算法隐私性有多么的不可靠。并且聚焦于 Dinur 与 Nissim 在论文所提出的一些启发差分隐私的理论。 同时,我们会重点分析一种称为重构攻击(Reconstruc
阅读全文
posted @ 2021-03-07 21:05 Uzuki
阅读(2233)
评论(0)
推荐(0)
数据挖掘 | 数据隐私(1) | 差分隐私 | 挑战数据隐私(Some Attempts at Data Privacy)
摘要: L1-Some Attempts at Data Privacy 本随笔基于Gautam Kamath教授的系列课程:CS 860 - Algorithms for Private Data Analysis - Fall 2020 本课的目的在于介绍一些信息加密的失败案例,介绍一些数据隐私安全的基
阅读全文
posted @ 2021-03-07 21:02 Uzuki
阅读(732)
评论(0)
推荐(0)
2021年1月31日
Opencv | 图形学 | Mingw64 | 如何正确地用MinGW64编译与配置vscode的Opencv环境
摘要: 最近有关于图形学的授课,教授开始布置的上机打码的代码实现作业了。虽说教授为了让我们省心,直接就整了个环境已经配置好的几个G的虚拟机给我们用。但是你也懂的,虚拟机打码,卡得要命。一开始还以为会用到什么高级的库,看了下就是个Eigen3和Opencv,对于Opencv,感觉自己手动在本地配一个就OK了。在配置的过程中才发现这玩意坑是尼玛的多,而且还是不带附加件的情况下,因此本篇博客应然而生。
阅读全文
posted @ 2021-01-31 14:06 Uzuki
阅读(1415)
评论(0)
推荐(1)
2021年1月17日
机器学习 | 强化学习(8) | 探索与开发(Exploration and Exploitation)
摘要: 8-探索与开发(Exploration and Exploitation) 1.导论 探索与开发二难问题 基于决策的决策过程存在以下两种选择 开发:基于目前的学习做最优的决策 探索:获取更多的学习 最佳的长期策略或许会包含一些短期的牺牲 获取足够的信息更能得到最为全面的决策 探索的方案(Approa
阅读全文
posted @ 2021-01-17 20:24 Uzuki
阅读(2836)
评论(0)
推荐(1)
机器学习 | 强化学习(7) | 融合学习与规划(Integrating Learning and Planning)
摘要: 7-融合学习与规划(Integrating Learning and Planning) 1.导论 基于模型的强化学习(Model-Based Reinforcement Learning) 在上一个课程中,是从记录序列中直接学习策略的 在过往的课程中,是从记录序列中直接学习价值函数的 而本次课程,
阅读全文
posted @ 2021-01-17 20:13 Uzuki
阅读(813)
评论(0)
推荐(0)
机器学习 | 强化学习(6) | 策略梯度方法(Policy Gradient Method)
摘要: 6-策略梯度方法(Policy Gradient Method) 策略梯度概论(Introduction) 基于策略(Policy-Based) 的强化学习 对于上一节课(价值函数拟合)中采用参数$\theta$来估计价值和动作-价值函数 \[ \begin{align} V_\theta(S) &
阅读全文
posted @ 2021-01-17 20:10 Uzuki
阅读(1839)
评论(0)
推荐(0)
机器学习 | 强化学习(5) | 价值函数拟合(Value Function Approximation)
摘要: 价值函数拟合(Value Function Approximation) 导论(Introduction) 目前的价值函数都是基于打表法(lookup table)进行穷举 对于所有状态$s$都有一个实体$V(s)$去表示 或者对于每个状态-价值函数对$s,a$都有一个实体$Q(s,a)$去表示 对
阅读全文
posted @ 2021-01-17 19:55 Uzuki
阅读(914)
评论(0)
推荐(0)
上一页
1
2
3
下一页
公告