摘要: 在过去的十年中,深度学习在解决许多以前被认为无法解决的问题方面发挥了重要作用,并且在某些任务上的准确性也与人类水平相当甚至超过了人类水平。如下图所示,更深的网络具有更高的准确度,这一点也被广泛接受并且证明。 使用更深层次的网络模型追求人类级别的准确性会带来一系列挑战,例如: 更长的推理时间 更高的计 阅读全文
posted @ 2021-12-20 13:37 deephub 阅读(315) 评论(0) 推荐(0) 编辑
摘要: 能够使用代码实现最新的论文对于数据科学家来说是一项极具竞争力的技能。 如果想了解黑匣子内部发生了么,提高创造力或成为第一个将最新科学研究带入业务的开发人员 这篇文章应该可以帮到你。 我们将讨论如何选择一篇“好”的论文作为开始,这对于初学者来说会比较容易;本文中将概述典型的论文结构以及重要信息的位置; 阅读全文
posted @ 2021-12-19 11:17 deephub 阅读(257) 评论(0) 推荐(0) 编辑
摘要: 了解Python代码的内存消耗是每一个开发人员都必须要解决的问题,这个问题不仅在我们使用pandas读取和处理CSV文件的时候非常重要,在我们使用GPU训练的时候还需要规划GPU的显存使用。尤其是我们在白嫖使用kaggle和colab时显得更为重要。 本篇文章我们将介绍两个 Python 库 mem 阅读全文
posted @ 2021-12-18 10:38 deephub 阅读(421) 评论(0) 推荐(0) 编辑
摘要: 作为数据科学家或机器学习从业者,将可解释性集成到机器学习模型中可以帮助决策者和其他利益相关者有更多的可见性并可以让他们理解模型输出决策的解释。 在本文中,我将介绍两个可以帮助了解模型的决策过程的模型 LIME 和 SHAP。 SHAP 它是 SHapley Additive exPlanations 阅读全文
posted @ 2021-12-17 10:33 deephub 阅读(556) 评论(0) 推荐(0) 编辑
摘要: 强化学习是机器学习领域的热门子项。由于 OpenAI 和 AlphaGo 等公司的最新突破,强化学习引起了游戏行业许多人的注意。我们今天以Hill Climb Racing这款经典的游戏来介绍DQN的整个概念,Hill Climb Racing需要玩家在不同的地形上驾驶不同的车辆,驾驶距离越长得分越 阅读全文
posted @ 2021-12-16 10:41 deephub 阅读(300) 评论(0) 推荐(0) 编辑
摘要: Numpy 长期以来一直是 Python 开发人员进行数组操作的通用选择,它是基于C语言构建的这使得它成为执行数组操作的快速和可靠的选择,并且它已经成为机器学习和数据科学必备的基础库。 在本文中,我整理了一些 NumPy 代码的片段,这些代码片段都是在日常开发中经常用到的。 1、创建数组 2、获取 阅读全文
posted @ 2021-12-15 10:18 deephub 阅读(41) 评论(0) 推荐(0) 编辑
摘要: 在社交互动中,面部表情在非语言交流中起着至关重要的作用。 心理学家保罗·埃克曼提出,全世界的人都有七种情绪表达方式:快乐、悲伤、惊讶、恐惧、愤怒、厌恶和蔑视。 建立更好的人机交互,例如通过图像检测人类情绪,可能是一项艰巨的任务。 面部表情对于社交互动很重要,并且在非语言人机交互方面发挥着重要作用。本 阅读全文
posted @ 2021-12-14 10:21 deephub 阅读(359) 评论(0) 推荐(0) 编辑
摘要: 如果你曾经训练过像 BERT 或 RoBERTa 这样的大型 NLP 模型,你就会知道这个过程是极其漫长的。由于其庞大的规模,训练此类模型可能会持续数天。当需要在小型设备上运行它们时,就会发现正在以巨大的内存和时间成本为日益增长的性能付出代价。 有一些方法可以减轻这些痛苦并且对模型的性能影响很小,这 阅读全文
posted @ 2021-12-13 11:18 deephub 阅读(293) 评论(0) 推荐(0) 编辑
摘要: 监督学习是训练机器学习模型的传统方法,它在训练时每一个观察到的数据都需要有标注好的标签。如果我们有一种训练机器学习模型的方法不需要收集标签,会怎么样?如果我们从收集的相同数据中提取标签呢?这种类型的学习算法被称为自监督学习。这种方法在自然语言处理中工作得很好。一个例子是BERT¹,谷歌自2019年以 阅读全文
posted @ 2021-12-12 11:20 deephub 阅读(749) 评论(0) 推荐(0) 编辑
摘要: 联邦学习也称为协同学习,它可以在产生数据的设备上进行大规模的训练,并且这些敏感数据保留在数据的所有者那里,本地收集、本地训练。在本地训练后,中央的训练协调器通过获取分布模型的更新获得每个节点的训练贡献,但是不访问实际的敏感数据。 联邦学习本身并不能保证隐私(稍后我们将讨论联邦学习系统中的隐私破坏和修 阅读全文
posted @ 2021-12-11 13:10 deephub 阅读(1759) 评论(0) 推荐(0) 编辑