会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Yohoc
博客园
首页
新随笔
联系
订阅
管理
1
2
3
4
5
···
22
下一页
2024年4月5日
c++ static_cast显式类型转换
摘要: static_cast<> 在 C++ 中是一种用于执行显式类型转换的运算符,它在编译时检查类型转换的有效性,比 C 风格的强制转换(如 (int)x)提供了更强的类型检查。 基本类型之间的转换 用于基本数据类型(如 int、float、double 等)之间的转换,使得不同类型的数据可以进行操作。
阅读全文
posted @ 2024-04-05 16:39 Yohoc
阅读(388)
评论(0)
推荐(0)
2024年4月4日
双指针做题总结2(滑动窗口)
摘要: 窗口大小固定:串联所有单词的子串https://leetcode.cn/problems/substring-with-concatenation-of-all-words/description/?envType=study-plan-v2&envId=top-interview-150 窗口大小
阅读全文
posted @ 2024-04-04 18:07 Yohoc
阅读(12)
评论(0)
推荐(0)
2024年3月25日
双指针做题总结1(碰撞指针)
摘要: 例题: 三数之和:https://leetcode.cn/problems/3sum/description/?envType=study-plan-v2&envId=top-interview-150 盛最多水的容器:https://leetcode.cn/problems/container-w
阅读全文
posted @ 2024-03-25 21:48 Yohoc
阅读(31)
评论(0)
推荐(0)
2024年2月4日
密码算法安全性
摘要:
阅读全文
posted @ 2024-02-04 09:48 Yohoc
阅读(15)
评论(0)
推荐(0)
2024年1月16日
机器学习中准确度(accuracy)和精确度(precision)的区别
摘要: 准确率(accuracy)是指模型正确预测的样本数与总样本数之比。它衡量了模型对所有样本的分类准确程度。准确率计算公式如下: 准确率 = (真阳性 + 真阴性) / (真阳性 + 假阳性 + 真阴性 + 假阴性) 精确度(precision)是指模型在预测为正例的样本中,真正例的比例。它衡量了模型在
阅读全文
posted @ 2024-01-16 17:12 Yohoc
阅读(2800)
评论(0)
推荐(0)
2023年12月24日
Python爬虫知识点(bs/find_all/正则表达式)
摘要: 网站选择 格式输出 BeautifulSoup库 tag.string 返回的是标签内的字符串内容,如果标签内只有一个字符串,那么 tag.string 就会返回这个字符串;如果标签内还包含其他标签,那么 tag.string 就可能返回 None。 tag.text 返回的是标签内所有字符串内容的
阅读全文
posted @ 2023-12-24 12:52 Yohoc
阅读(52)
评论(0)
推荐(0)
2023年12月19日
Python的Requests库与网页爬取
摘要: requests库的几种方法 其他几个方法内部实际都调用了requests.request()方法 Response对象的属性 首先要使用r.status_code判断连接是否成功。 Request库的异常 爬取网页的通用代码 需要处理异常,使爬取网页变得更有效、可靠、稳定。 HTTP 无状态:第一
阅读全文
posted @ 2023-12-19 19:26 Yohoc
阅读(36)
评论(0)
推荐(0)
2023年11月18日
自然语言处理预训练——预训练BERT
摘要: 原始的BERT有两个版本,其中基本模型有1.1亿个参数,大模型有3.4亿个参数。 在预训练BERT之后,我们可以用它来表示单个文本、文本对或其中的任何词元。 在实验中,同一个词元在不同的上下文中具有不同的BERT表示。这支持BERT表示是上下文敏感的。
阅读全文
posted @ 2023-11-18 20:45 Yohoc
阅读(45)
评论(0)
推荐(0)
自然语言处理预训练——用于预训练BERT的数据集
摘要: 为了预训练 14.8节中实现的BERT模型,我们需要以理想的格式生成数据集,以便于两个预训练任务:遮蔽语言模型和下一句预测。一方面,最初的BERT模型是在两个庞大的图书语料库和英语维基百科(参见 14.8.5节)的合集上预训练的,但它很难吸引这本书的大多数读者。另一方面,现成的预训练BERT模型可能
阅读全文
posted @ 2023-11-18 20:44 Yohoc
阅读(106)
评论(0)
推荐(0)
自然语言处理预训练—— 来自Transformers的双向编码器表示(BERT)
摘要: 我们已经介绍了几种用于自然语言理解的词嵌入模型。在预训练之后,输出可以被认为是一个矩阵,其中每一行都是一个表示预定义词表中词的向量。事实上,这些词嵌入模型都是与上下文无关的。让我们先来说明这个性质。 从上下文无关到上下文敏感 ELMo(Embeddings from Language Models)
阅读全文
posted @ 2023-11-18 20:07 Yohoc
阅读(332)
评论(0)
推荐(0)
1
2
3
4
5
···
22
下一页
公告