随笔分类 -  人工智能

摘要:前言 在监督式机器学习中,无论是回归问题还是分类问题,都少不了使用损失函数(Loss Function)。**损失函数(Loss Function)**是用来估量模型的预测值 f(x) 与真实值 y 的不一致程度。 若损失函数很小,表明机器学习模型与数据真实分布很接近,则模型性能良好;若损失函数很大 阅读全文
posted @ 2020-11-04 14:51 Chen洋 阅读(5730) 评论(0) 推荐(1)
摘要:声明一下,本文只是介绍一下最基础的基于内容的推荐系统(Content-based recommender system)的工作原理,其实基于内容的推荐系统也分三六九等,这里只是简单的较少一下最原始的、最基本的工作流程。 基于内容的推荐算法思路很简单,它的原理大概分为3步: 1、为每个物品(Item) 阅读全文
posted @ 2020-11-04 11:19 Chen洋 阅读(1237) 评论(1) 推荐(0)
摘要:先来说一下这几者之间的关系:人工智能包含机器学习,机器学习包含深度学习(是其中比较重要的分支)。深度学习源自于人工神经网络的研究,但是并不完全等于传统神经网络。所以深度学习可以说是在传统神经网络基础上的升级。神经网络一般有输入层->隐藏层->输出层,一般来说隐藏层大于2的神经网络就叫做深度神经网络, 阅读全文
posted @ 2020-11-03 19:38 Chen洋 阅读(1938) 评论(0) 推荐(1)
摘要:1、什么是 softmax 机器学习总归是要接触到 softmax 的,那么这个东东倒底是怎么来的呢?对于熟悉机器学习或神经网络的读者来说,sigmoid与softmax两个激活函数并不陌生,但这两个激活函数在逻辑回归中应用,也是面试和笔试会问到的一些内容,掌握好这两个激活函数及其衍生的能力是很基础 阅读全文
posted @ 2020-11-03 18:13 Chen洋 阅读(6116) 评论(0) 推荐(0)
摘要:北京大学视觉与听觉信息处理实验室 北京邮电大学模式识别与智能系统学科 复旦大学智能信息处理开放实验室 IEEE Computer Society北京映象站点 计算机科学论坛 机器人足球赛 模式识别国家重点实验室 南京航空航天大学模式识别与神经计算实验室 - PARNEC 南京大学机器学习与数据挖掘研 阅读全文
posted @ 2020-10-31 11:32 Chen洋 阅读(1781) 评论(0) 推荐(0)