上一页 1 ··· 3 4 5 6 7
摘要: 现在”人工智能“如此火爆的一大直接原因便是deepmind做出的阿尔法狗打败李世石,从那时开始计算机科学/人工智能成为了吹逼的主流。记得当时还是在学校晚新闻的时候看到的李世石输的消息,这个新闻都是我给打开的hhhhh,对当时场景的印象还是蛮深的。现在涵哥就带大家追根溯源,看看把人工智能推上吹逼大道的 阅读全文
posted @ 2019-11-29 13:54 dynmi 阅读(1114) 评论(0) 推荐(0) 编辑
摘要: 以下除特殊说明外均为32位数的运算 1.加法运算 A + B = C 无符号整数加法和有符号整数加法均采用以下方案进行操作 用到的寄存器与初始化内容: 32位加数寄存器 初始化为加数 32位被加数寄存器 初始化为被加数 32位和寄存器 全部置零 操作方案如下: 将加数寄存器和被加数寄存器按位对齐,每 阅读全文
posted @ 2019-10-29 17:37 dynmi 阅读(2761) 评论(2) 推荐(0) 编辑
摘要: 现在的CNN还差很多,未来满是变数。 你看,现在的应用领域也无非merely就这么几类 分类识别,目标检测(定位+识别),对象分割......,但是人的视觉可不仅仅这么几个功能啊!是吧。 先说说CNN中的C,convolution,卷积。从1998年lecun的LEnet到后来alexnet,vgg 阅读全文
posted @ 2019-10-14 14:51 dynmi 阅读(357) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法作为一种反向传播算法最早在上世纪由geoffrey hinton等人提出并被广泛接受。最早GD由很多研究团队各自独立提出来,可大都无人问津,而hinton做的研究完整表述了GD方法,同时hinton为自己的研究多次走动人际关系使得其论文出现在了当时的《nature》上,因此GD得到了第一次 阅读全文
posted @ 2019-10-06 18:33 dynmi 阅读(2185) 评论(1) 推荐(6) 编辑
摘要: 本文仅对常见的无监督学习算法进行了简单讲述,其他的如自动编码器,受限玻尔兹曼机用于无监督学习,神经网络用于无监督学习等未包括。同时虽然整体上分为了聚类和降维两大类,但实际上这两类并非完全正交,很多地方可以相互转化,还有一些变种的算法既有聚类功能又有降维功能,一些新出现的和尚在开发创造中的无监督学习算 阅读全文
posted @ 2019-10-04 00:14 dynmi 阅读(26066) 评论(7) 推荐(7) 编辑
摘要: 作者:周奇 最近我要获取《概统》的教材自学防挂科(线代已死),于是我看到 htt链ps:/链/max链.book接118接.com接/html/2018/0407/160495927.shtm 这里有东北大学的教材。 我想获取这个pdf,然鹅要20块,我又穷。 但我想,“所见即所得”,“凡走过必留下 阅读全文
posted @ 2019-09-26 12:02 dynmi 阅读(320) 评论(0) 推荐(0) 编辑
摘要: 请提前搭好梯子,如果没有梯子的话直接403。 1.所用到的包 requests: 和服务器建立连接,请求和接收数据(当然也可以用其他的包,socket之类的,不过requests是最简单好用的) BeautifulSoup:解析从服务器接收到的数据 urllib: 将网页图片下载到本地 2.获取指定 阅读全文
posted @ 2019-09-26 11:44 dynmi 阅读(2951) 评论(0) 推荐(0) 编辑
摘要: 使用并查集时,首先会存在一组不相交的动态集合 $S = \left\{ {{S_1},{S_2}, \cdots ,{S_k}} \right\}$,一般都会使用一个整数表示集合中的一个元素。 每个集合可能包含一个或多个元素,并选出集合中的某个元素作为代表。每个集合中具体包含了哪些元素是不关心的,具 阅读全文
posted @ 2019-08-06 20:51 dynmi 阅读(766) 评论(0) 推荐(0) 编辑
摘要: 递推公式: 完整模板代码: 阅读全文
posted @ 2019-08-06 18:27 dynmi 阅读(170) 评论(0) 推荐(0) 编辑
摘要: 二叉树不同于列表、链表、栈、队列这些线性结构,也不同于图这种非线性结构,它属于半线性结构。我们在搞二叉树的时候不要从轮子造起,而要善于引用此前的工作成果,转化成以前已经玩烂的线性结构。 根据树根、左娃、右娃的先后顺序,分别有先序遍历(V-L-R)、中序遍历(L-V-R)、后序遍历(L-R-V),说一 阅读全文
posted @ 2019-07-15 09:11 dynmi 阅读(489) 评论(0) 推荐(0) 编辑
摘要: 之前看到过很多次奇异值分解这个概念,但我确实没有学过。大学线性代数课教的就是坨屎,我也没怎么去上课,后来查了点资料算是搞清楚了,现在写点东西总结一下。 奇异值分解,就是把一个矩阵拆成一组矩阵之和。在数学里面,因式分解,泰勒展开,傅里叶展开,特征值分解,奇异值分解都是这个路数。就是把当前数据表示成一组 阅读全文
posted @ 2019-06-22 23:54 dynmi 阅读(1327) 评论(0) 推荐(0) 编辑
摘要: 本文并不是详细介绍yolo工作原理以及改进发展的文章,只用做作者本人回想与提纲。 1.yolo是什么 输入一张图片,输出图片中检测到的目标和位置(目标的边框) yolo名字含义:you only look once 对于yolo这个神经网络: (Assume s*s栅格, n类可能对象, ancho 阅读全文
posted @ 2019-06-04 15:16 dynmi 阅读(1871) 评论(0) 推荐(0) 编辑
摘要: 前天晚上deecamp笔试,一道简单的冒泡排序题没答上来,重挫.jpg。写点东西复习一下。 (所有排序函数除特殊标注外,输入输出均为array类型) 1.冒泡排序 2.选择排序 3.插入排序 4.希尔排序 5.归并排序 6.快速排序 7.堆排序 操作步骤: 1.所有数据入堆 2.维护 至 最小顶堆 阅读全文
posted @ 2019-06-03 21:06 dynmi 阅读(361) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7