摘要:决定在博客园上记录自己的课程学习笔记、论文阅读总结、以及个人生活所见所感。 先把以前自己写在有道云笔记上的内容搬运过来,整体上按照ML/DL算法的分类整理,按照自己的理解再加工。 主要来源于以下课程,喜爱程度不分先后: 1. 李宏毅老师:http://speech.ee.ntu.edu.tw/~tl 阅读全文
posted @ 2019-07-10 09:36 王朝君BITer 阅读 (130) 评论 (0) 编辑
摘要:字节跳动提前批-财经-算法 一面 1. 自我介绍 2. 项目经历介绍 3. 推导 logistic regression 的代价函数和梯度(???这问的都是啥啊... 是因为觉得我菜吗...) 4. 一个有序数组,可能以某个位置为界,前后两部位置调换,求 O(logn) 的搜索 没复习就去了,本来想 阅读全文
posted @ 2019-09-29 22:01 王朝君BITer 阅读 (152) 评论 (0) 编辑
摘要: 阅读全文
posted @ 2019-09-26 09:09 王朝君BITer 阅读 (14) 评论 (0) 编辑
摘要:隐马尔可夫模型 概率图模型;有向图模型;生成模型 讨论 HMM,从三个问题展开:evaluation(给定模型参数求观测序列)、learning(如何求模型参数)、decoding(给定模型和观测序列,求状态序列) evaluation 直接计算法复杂度太高,用前向算法和后向算法优化。 前向算法: 阅读全文
posted @ 2019-09-23 12:04 王朝君BITer 阅读 (17) 评论 (0) 编辑
摘要:协同过滤 collaborative filtering 人以类聚,物以群分 相似度 1. Jaccard 相似度 定义为两个集合的交并比: Jaccard 距离,定义为 1 - J(A, B),衡量两个集合的区分度: 为什么 Jaccard 不适合协同过滤?—— 只考虑用户有没有看过,没考虑评分大 阅读全文
posted @ 2019-09-22 13:12 王朝君BITer 阅读 (24) 评论 (0) 编辑
摘要:用户画像 User Profile 基于内容推荐离不开用户画像。在推荐系统中,并不以市场销售人员的第一视角去看待用户(绘制标签云图像或者若干统计学属性),用户画像应该给机器看而不是给人看。 推荐系统在对匹配评分之前,要先对 user 和 item 都向量化才能进行计算,其中用户向量化的结果,就是 u 阅读全文
posted @ 2019-09-21 23:01 王朝君BITer 阅读 (10) 评论 (0) 编辑
摘要:什么是推荐系统? 1. 能做什么? 找出 user 和 item 之间的联系、预测未来 user 和 item 可能出现的连接(产生了某种关系:比如用户点击、购买、评论了物品;或者用户某些属性和物品的属性一致 ...) 2. 需要什么? 需要已经存在的 user 和 item 之间的连接记录 3. 阅读全文
posted @ 2019-09-19 21:53 王朝君BITer 阅读 (51) 评论 (0) 编辑
摘要:动态规划 Dynamic Programming 一种设计的技巧,是解决一类问题的方法 dp遵循固定的思考流程:暴力递归 —— 递归+记忆化 —— 非递归的动态规划(状态定义+转移方程) 斐波那契数列 暴力递归,看上去很简洁 def fib(n): return n if n <= 1 else f 阅读全文
posted @ 2019-09-17 16:52 王朝君BITer 阅读 (33) 评论 (0) 编辑
摘要:Adaboost + CART 用 CART 决策树来作为 Adaboost 的基础学习器 但是问题在于,需要把决策树改成能接收带权样本输入的版本。(need: weighted DTree(D, u(t)) ) 这样可能有点麻烦,有没有简单点的办法?尽量不碰基础学习器内部,想办法在外面把数据送进去 阅读全文
posted @ 2019-09-15 19:44 王朝君BITer 阅读 (139) 评论 (0) 编辑
摘要:1. 平衡二叉树 输入一棵二叉树,判断该二叉树是否是平衡二叉树。 解: 要么是一颗空树,要么左右子树都是平衡二叉树且左右子树深度之差不超过1 1 # class TreeNode: 2 # def __init__(self, x): 3 # self.val = x 4 # self.left = 阅读全文
posted @ 2019-09-09 15:57 王朝君BITer 阅读 (31) 评论 (0) 编辑
摘要:决策树的核心思想就是 if else,实现了 conditional aggregation,关键问题在于分裂的时候哪些特征在前哪些特征在后。从 ID3 开始使用熵(entropy)来作为决策选择的度量。决策树可以做分类,也可以做回归,是一种比较灵活的算法。主要包括 ID3、C4.5、CART,可以 阅读全文
posted @ 2019-09-05 14:26 王朝君BITer 阅读 (31) 评论 (0) 编辑