摘要:
前言 今天提一个比较轻松的话题,简单探讨数据集大小对深度学习训练的影响。 不知道大家有没有看过这篇文章:Don't use deep learning your data isn't that big 是的,有人对深度学习的局限性提供了一个证据:那就是当你数据比较少的时候,深度学习的作用相比较于其他 阅读全文
摘要:
前言 亲,显存炸了,你的显卡快冒烟了! torch.FatalError: cuda runtime error (2) : out of memory at /opt/conda/conda-bld/pytorch_1524590031827/work/aten/src/THC/generic/T 阅读全文
摘要:
最近闲来无事,老潘以一名普通算法工程师的角度,结合自身以及周围人的情况,理性也感性地分析一下极市平台前些天发布的2020年度中国计算机视觉人才调研报告。 以下的“计算机视觉人才”简称“人才”,感觉说人才有点怪怪的感觉?自己也算人才么?老潘只不过是一个普普通通的算法工程师罢了(逃)。 这个报告一共分为 阅读全文
摘要:
前言 本篇文章可作为<利用变分自编码器实现深度换脸(DeepFake)>的知识铺垫。 自编码器是什么,自编码器是个神奇的东西,可以提取数据中的深层次的特征。 例如我们输入图像,自编码器可以将这个图像上“人脸”的特征进行提取(编码过程),这个特征就保存为自编码器的潜变量,例如这张人脸的肤色以及头发颜色 阅读全文
摘要:
前言 深度学习不不仅仅是理论创新,更重要的是应用于工程实际。 关于深度学习人工智能落地,已经有有很多的解决方案,不论是电脑端、手机端还是嵌入式端,将已经训练好的神经网络权重在各个平台跑起来,应用起来才是最实在的。 (caffe2-ios:https://github.com/KleinYuan/Ca 阅读全文
摘要:
本系列为新TensorRT的第一篇,为什么叫新,因为之前已经写了两篇关于TensorRT的文章,是关于TensorRT-5.0版本的。好久没写关于TensorRT的文章了,所幸就以新来开头吧~ 接下来将要讲解的TensorRT,将会是基于7.0版本。 7版本开头的TensorRT变化还是挺大的,增加 阅读全文
摘要:
好久不见了各位! 前一阵子忍不住剁手买了M1芯片的mac mini,为了弥补自己的内疚感就卖了自己的旧的mbp2017款。数据也完全迁移到了新机器上,之前的工作也就由mbp2017彻底换成mac mini了,要换就换彻底点,不要给自己了留后路,哼。 为什么买mini而不是macbook系列,当然是为 阅读全文
摘要:
前言 过年时闲来无事,瞎翻自己的博客,偶然看到之前写的一篇文章: 一篇文章解决机器学习,深度学习入门疑惑 这篇文章原先发布于2018年中旬,那会正是深度学习、神经网络无脑火热的时候。火热到什么程度?火热到显卡一度卖脱销(不是因为挖矿),研究生导师集体推荐学生转深度学习方向、毕业论文不带“深度学习”四 阅读全文