-
HBase 使用与原理总结
摘要:window启动: 点击 bin/start-hbase.cmd 即可; UI: 16010 创建连接:public static Connection Conn() { Configuration config = HBaseConfiguration.create(); // 本地测试 conf
阅读全文
-
Java8 的一些使用总结
摘要:nohup java -jar -Xmx1024M china-map.jar > log.txt & 在ssh退出后, 也不会终止进程; Object[] a = IntStream.range(0,100). map(i->String.valueOf(i).hashCode()). mapTo
阅读全文
-
对Redis的一些理解
摘要:阻塞IO:当使用read或者write对某一文件描述符(File Descriptor FD)进行读写的时候,如果数据没有收到,那么该线程会被挂起,直到收到数据。 I/O多路复用:多个连接的管理可以在同一进程, 把多个连接的事件通知业务代码处理, 该方法能同时监控多个文件描述符(fd)的读写情况,当
阅读全文
-
BERT原理解析 -- 转载
摘要:原文地址: https://terrifyzhao.github.io/2019/02/18/BERT原理.html Bert其实并没有过多的结构方面的创新点,其和GPT一样均是采用的transformer的结构,相对于GPT来说,其是双向结构的,而GPT是单向的,如下图所示 结构 先看下bert的
阅读全文
-
BERT模型源码解析 -- 转载
摘要:原文地址: http://www.ishenping.com/ArtInfo/941132.html 感谢作者的辛勤付出! 一、模块一之生成预训练数据 bert模型的预训练数据生成主要在create_pretraining_data.py及tokenization.py中。 执行命令: create
阅读全文
-
注意力机制解析--转载Attention
摘要:原文地址: https://terrifyzhao.github.io/2019/01/04/Attention模型详解.html attention是一种能让模型对重要信息重点关注并充分学习吸收的技术,它不算是一个完整的模型,应当是一种技术,能够作用于任何序列模型中。 传统Seq2Seq 在开始讲
阅读全文
-
Transformer模型解读 -- 转载
摘要:原文地址: https://terrifyzhao.github.io/2019/01/11/Transformer模型详解.html Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领
阅读全文
-
Golang-后端总结
摘要:什么时候用指针, 什么时候用值传递, 结构体、尤其sync包下的, 都要用指针传递; 而一些轻量的数据可以使用值传递,也不改变其值;尽量避免反射,在高性能服务中杜绝反射的使用多进行复用, 使用sync.Pool 线上问题优化:批量读与写, 主要问题: CPU占用过高, 主要因为申请释放大量资源造成的
阅读全文
-
Golang-基础自测题
摘要:平衡二叉树: 父节点的左子树和右子树的高度之差不能大于1,也就是说不能高过1层,否则该树就失衡了,此时就要旋转节点,在编码时,我们可以记录当前节点的高度,比如空节点是-1,叶子节点是0,非叶子节点的height往根节点递增,比如在下图中我们认为树的高度为h=2。 /* 1 写出以下逻辑,要求每秒钟调
阅读全文
-
Golang-基础
摘要:###应用: 数据接口API, 自动邮件 ### 1. 值传递与引用传递 -> 1. 任何值传递都无改变原始值(map自带地址属性, 数组内的元素自带地址属性), 其他只能通过地址引用; func do(a *[]int){ *a=append(*a,5)} var a = []int{1,2,3}
阅读全文
|