摘要: 1.Intro 为了实现多道程序环境,操作系统设计引入了进程Process的概念。 为了协调进程间的相互制约,则又引入了进程同步进程互斥的概念。 为了更直观地处理进程相互制约的问题,我们把一次仅允许一个进程使用的资源称为临界资源。把进程访问这个资源的那段代码称为临界区。 do { entry sec 阅读全文
posted @ 2020-09-06 11:42 dynmi 阅读(360) 评论(0) 推荐(0) 编辑
摘要: ./keep 阅读全文
posted @ 2020-09-02 10:59 dynmi 阅读(95) 评论(0) 推荐(0) 编辑
摘要: malloc / free 两者都是C语言标准库cstdlib中的系统调用函数,在C++中这个库成了stdlib.h 。 void *malloc(size_t size); malloc函数从内存中分配一段长度为size的连续内存,并返回这段连续内存空间的首地址,赋值给等号左方的指针变量。使用如: 阅读全文
posted @ 2020-08-31 20:36 dynmi 阅读(123) 评论(0) 推荐(0) 编辑
摘要: 命令字 编程状态 初始化命令寄存器组 CPU使用IN/OUT指令对8259A芯片进行初始化编程。完成后即进入操作态。 ICW1 当D4=1并且A0=0时,表示是对ICW1进行设置。 ICW2 当A0=1时,表示对ICW2进行设置。ICW2用于设置芯片送出中断号的高5位。 ICW3 当ICW1的D1位 阅读全文
posted @ 2020-08-31 11:39 dynmi 阅读(853) 评论(2) 推荐(0) 编辑
摘要: GE2E loss 是什么 GE2E loss 全称为Generalized end to end loss function。它聚焦于embedding的差异性,比TE2E(tuple-based endto-end loss function)损失函数更有效。 前提准备 batch的形式 每个b 阅读全文
posted @ 2020-07-20 09:49 dynmi 阅读(787) 评论(0) 推荐(0) 编辑
摘要: 本方法的整体逻辑是刷新hosts文件内github的ip地址。 下面是我自己写的脚本: #!/bin/bash # author HarisWang # website http://dynmi.top fast_ip=`nslookup github.global.ssl.fastly.Net|e 阅读全文
posted @ 2020-06-04 12:45 dynmi 阅读(654) 评论(0) 推荐(0) 编辑
摘要: Intro 这是我第一次尝试数据科学竞赛。比赛任务是, 使用tensorflow和主办方提供的TPUs训练自己的模型,对104种花朵图像作分类. 主办方提供了最高分辨率为512x512的图像数据集. 在提交测试集结果后,系统采用F1 score进行评分. 在这场playground比赛中,我采用了 阅读全文
posted @ 2020-05-16 16:30 dynmi 阅读(216) 评论(0) 推荐(0) 编辑
摘要: - 比特bit 物理层面, 就是一个电信号的通与断,通就是1,断就是0 - 字节byte 计算机数据层面. 8个bits记作1个byte . 物理层面上可以理解为8个并行电信号的通断 这是计算机科学中原子级的存储单位, 我们常说的1MB就是 一百万个byte - 字 word 计算机工作层面, 一串 阅读全文
posted @ 2020-05-15 11:16 dynmi 阅读(384) 评论(0) 推荐(0) 编辑
摘要: 一. bags of specials 1. swish激活函数 f(x) = x • sigmoid(x) 2. Mish 激活函数 3. spatial pyramid pooling(SPP) citehttps://arxiv.org/abs/1406.4729 传统的卷积神经网络,对输入图 阅读全文
posted @ 2020-04-26 23:15 dynmi 阅读(345) 评论(0) 推荐(0) 编辑
摘要: 1.Broadcast 2.Scatter 3.Gather 4.Reduce 5.AllGather 6.Allreduce 阅读全文
posted @ 2020-03-30 18:35 dynmi 阅读(4073) 评论(2) 推荐(1) 编辑
摘要: Level1: 分类问题最早只是二分类问题,最初只有这几个概念:"真正例","真负例","假正例","假负例". TP: 样本标签为1,模型预测为1 FP: 样本标签为1,模型预测为-1 TN: 样本标签为-1,模型预测为-1 FN:样本标签为-1,模型预测为1 Level2: 准确率acc, 通俗 阅读全文
posted @ 2020-03-22 15:39 dynmi 阅读(263) 评论(0) 推荐(0) 编辑
摘要: str表示文本串,m表示模式串; str[i] 和 m[j] 是正在进行匹配比较的字符; KMP的时间复杂度是O(m+n) , 暴力求解的时间复杂度是O(m*n) KMP利用了m[ 0 : j-1 ]和str[ i-j : i-1 ]是相同的这一点,而暴力求解显然做不到. int kmp(strin 阅读全文
posted @ 2020-03-15 22:02 dynmi 阅读(795) 评论(0) 推荐(0) 编辑
摘要: 2011年的ImageNet图像分类比赛被AlexNet屠榜. 1.证明了----增加网络层数,使模型结构更复杂,可以得到拟合能力更强的模型. 2.激活函数使用Relu 3.Data Argumention,数据扩充 ,丰富多样了训练集数据,减轻模型对imageNet数据集的过拟合,训练得到更强大的 阅读全文
posted @ 2020-03-13 01:27 dynmi 阅读(122) 评论(0) 推荐(0) 编辑
摘要: Assume数据集样本总量为n LOOCV每次验证集的样本数量为1,而K-fold验证集的样本数量为n/k 阅读全文
posted @ 2020-03-08 14:30 dynmi 阅读(453) 评论(0) 推荐(0) 编辑
摘要: 首先检测TPU存在: tpu = tf.distribute.cluster_resolver.TPUClusterResolver() #如果先前设置好了TPU_NAME环境变量,不需要再给参数. tpu的返回值为1 or 0 ,1则检测到了TPU. tf.config.experimental_ 阅读全文
posted @ 2020-02-29 13:26 dynmi 阅读(2225) 评论(0) 推荐(0) 编辑