摘要:一、有代理 在你的代理软件高级设置中,有 socket5 代理端口,下面的命令中的端口用的你软件中的端口。 https 方式 clone 代码 git config --global http.proxy 'socks5h://127.0.0.1:1080' git config --global 阅读全文
posted @ 2021-01-16 11:24 理想几岁 阅读(63) 评论(0) 推荐(0) 编辑
摘要:multiclass与multilabel的区别 multiclass分类是指n取1 multilabel分类是指n取k 对于xgboost,如果想要做multiclass分类可以借助sklearn的 from sklearn.multiclass import OneVsRestClassifie 阅读全文
posted @ 2021-01-07 23:14 理想几岁 阅读(38) 评论(0) 推荐(0) 编辑
摘要:查看与更改 进入/opt/docker-es, 修改kibana.yml中ip为本机ip地址,然后执行 docker restart kibana 即可使用kinana 本文为个人笔记 阅读全文
posted @ 2020-12-12 13:38 理想几岁 阅读(76) 评论(0) 推荐(0) 编辑
摘要:安装前准备 CUDA的主要用途是深度学习,而目前主流的深度学习框架Tensorflow2最高支持CUDA 10.1,因此本文讲解在Ubuntu 20.04系统上安装CUDA 10.1的主要过程。 首先要安装NVIDIA显卡驱动,这个可以直接在设置附加驱动里选择对应版本系统会自动安装 也可选择手动安装 阅读全文
posted @ 2020-11-09 09:53 理想几岁 阅读(538) 评论(0) 推荐(0) 编辑
摘要:本文转自 https://blog.csdn.net/lanchunhui/article/details/50521648 from sklearn.pipeline import Pipeline 管道机制在机器学习算法中得以应用的根源在于,参数集在新数据集(比如测试集)上的重复使用。 管道机制 阅读全文
posted @ 2020-10-26 15:56 理想几岁 阅读(200) 评论(0) 推荐(0) 编辑
摘要:一、标题 在想要设置为标题的文字前面加#来表示 一个#是一级标题,二个#是二级标题,以此类推。支持六级标题。 注:标准语法一般在#后跟个空格再写文字,貌似简书不加空格也行。 示例: # 这是一级标题 ## 这是二级标题 ### 这是三级标题 #### 这是四级标题 ##### 这是五级标题 #### 阅读全文
posted @ 2020-10-26 10:48 理想几岁 阅读(52) 评论(0) 推荐(0) 编辑
摘要:本文转自微信公众号--Python中文社区--浅谈keras的扩展性:自定义keras 1. 自定义keras keras是一种深度学习的API,能够快速实现你的实验。keras也集成了很多预训练的模型,可以实现很多常规的任务,如图像分类。TensorFlow 2.0之后tensorflow本身也变 阅读全文
posted @ 2020-10-26 09:37 理想几岁 阅读(111) 评论(0) 推荐(0) 编辑
摘要:一、bert模型的整体结构 BERT主要用了Transformer的Encoder,而没有用其Decoder,可能是因为BERT是一个预训练模型,只要学到其中语义关系即可,不需要去解码完成具体的任务。整体架构如下图: 多个Transformer Encoder一层一层地堆叠起来,就组装成了BERT了 阅读全文
posted @ 2020-08-07 10:55 理想几岁 阅读(154) 评论(0) 推荐(0) 编辑
摘要:python3.5和Python3.6切换 # 查看有效内核 jupyter kernelspec list # 找到以下路劲(我的电脑) /usr/local/share/jupyter/kernels/python3 # 更改里面的kernel.json文档中Python的路径调用,改为所需要的 阅读全文
posted @ 2020-07-20 21:20 理想几岁 阅读(302) 评论(0) 推荐(0) 编辑
摘要:1、查看文件夹内文件大小 du -sh *|sort -h 2、删除不用的老旧内核 # 查看现用内核 uname –r # 查看内核文件、头文件 dpkg --get-selections | grep linux # 删除不用内核文件 头文件 sudo apt-get purge 内核文件名 头文 阅读全文
posted @ 2020-07-13 20:54 理想几岁 阅读(102) 评论(0) 推荐(0) 编辑