摘要:爱奇艺 1. attention《attention is all you need》 2. 相关项目 3. 逻辑回归 4. linux的指令(重命名文件,vim替换,vim指向文章最末行) 5. 编程题:实现开根号函数 6. 编程题:实现前缀树 百度 1. bert模型结构 2. bert中的ma 阅读全文
posted @ 2019-10-29 14:03 yuanninesuns 阅读 (197) 评论 (0) 编辑
摘要:1.二维数组中的查找 题目描述:在一个二维数组中(每个一维数组的长度相同),每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否含有该整数。 误区:以斜对角的数组为比较对象,并不是大于array[i][i],小于ar 阅读全文
posted @ 2018-11-01 22:42 yuanninesuns 阅读 (555) 评论 (0) 编辑
摘要:1.Populating Next Right Pointers in Each Node II(广搜) 解法:https://www.cnblogs.com/grandyang/p/4290148.html 2.Course Schedule II(深搜) 解法:http://www.cnblog 阅读全文
posted @ 2018-06-05 22:34 yuanninesuns 阅读 (61) 评论 (0) 编辑
摘要:大家好!又到了期末时间,各位国科大的师弟师妹们,师兄帮你们总结了高级人工智能的考点,如果你好好复习了,那么这篇博文能帮你上90;如果没有也不要怕,认真看了这篇博文,也能保你70。下面我们开始吧,更多考试知识点请关注文末。转载请注明出处。 往届考试知识点 BP GAN 搜索 田忌赛马 Transact 阅读全文
posted @ 2020-01-13 18:08 yuanninesuns 阅读 (15) 评论 (0) 编辑
摘要:爱奇艺 1. attention《attention is all you need》 2. 相关项目 3. 逻辑回归 4. linux的指令(重命名文件,vim替换,vim指向文章最末行) 5. 编程题:实现开根号函数 6. 编程题:实现前缀树 百度 1. bert模型结构 2. bert中的ma 阅读全文
posted @ 2019-10-29 14:03 yuanninesuns 阅读 (197) 评论 (0) 编辑
摘要: 阅读全文
posted @ 2019-10-16 16:27 yuanninesuns 阅读 (23) 评论 (0) 编辑
摘要:1.线性回归和逻辑回归的区别 2.如果用id作为决策树中分类的特征,会存在什么问题 3.卷积层的作用(不是减少参数) 4.如果想要是卷积之后的输出维度不变,就需要补全,补全的方法有哪些 5.如何选择l1范式和l2范式 6.依存句法分析是怎么实现的 7.在反向传播的时候,遇到dropout层是怎么计算 阅读全文
posted @ 2019-07-16 10:53 yuanninesuns 阅读 (25) 评论 (0) 编辑
摘要:如上所示,因为double范围比int大很多,所以使用double来判断是否溢出很简单 阅读全文
posted @ 2019-06-05 10:58 yuanninesuns 阅读 (360) 评论 (0) 编辑
摘要:交互式证明:http://www.matrix67.com/blog/archives/6572 捡石子游戏(移动皇后问题):http://www.matrix67.com/blog/archives/6784 阅读全文
posted @ 2019-05-29 16:37 yuanninesuns 阅读 (27) 评论 (0) 编辑
摘要:HashMap:我们最常用的Map,它根据key的HashCode 值来存储数据,根据key可以直接获取它的Value,同时它具有很快的访问速度。HashMap最多只允许一条记录的key值为Null(多条会覆盖);允许多条记录的Value为 Null。非同步的。 TreeMap: 能够把它保存的记录 阅读全文
posted @ 2019-05-27 10:12 yuanninesuns 阅读 (20) 评论 (0) 编辑
摘要:1 import tensorflow as tf 2 import numpy as np 3 # const = tf.constant(2.0, name='const') 4 # b = tf.placeholder(tf.float32, [None, 1], name='b') 5 # # b = tf.Variable(2.0, dtype=tf.float32, nam... 阅读全文
posted @ 2019-05-22 16:36 yuanninesuns 阅读 (348) 评论 (0) 编辑
摘要:神经网络中epoch与iteration是不相等的 batchsize:中文翻译为批大小(批尺寸)。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练; iteration:中文翻译为迭代,1个iteration等于使用batchsize个样本训练一次;一个迭代 = 阅读全文
posted @ 2019-05-22 14:49 yuanninesuns 阅读 (103) 评论 (0) 编辑
摘要:1.如果要排序的东西是放在一个数组里面的 1.1如果要排序的东西是基本数据类型,如int 1.2如果要排序的东西是java自己的类,如Integer 1.3如果要排序的东西是你自己实现的类,那就在类里面直接重写compareTo方法 2.如果要排序的东西是放在一个List里面的 2.1如果要排序的东 阅读全文
posted @ 2019-04-15 16:55 yuanninesuns 阅读 (25) 评论 (0) 编辑