上一页 1 2 3 4 5 6 7 ··· 23 下一页
摘要: selenium 配置代理需要在启动的时候配置,如果代理失效或者不可用,切换需要重启,可以使用搭建一个代理中转服务,让selenium连接固定的中转服务,中转服务选择可用的代理。 阅读全文
posted @ 2023-09-21 14:44 JadePeng 阅读(72) 评论(0) 推荐(0) 编辑
摘要: 开源java版本bertTokenizer 阅读全文
posted @ 2023-09-04 15:44 JadePeng 阅读(472) 评论(0) 推荐(0) 编辑
摘要: 要获取内网地址,可以尝试连接到10.255.255.255:1。如果连接成功,获取本地套接字的地址信息就是当前的内网IP。 python实现: ```python import socket def extract_ip(): st = socket.socket(socket.AF_INET, s 阅读全文
posted @ 2023-07-11 13:45 JadePeng 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 计算机网络通信中最重要两个衡量指标主要是 带宽 和 延迟。分布式训练中需要传输大量的网络模型参数,网络通信至关重要。 AI集群通信实现方式 AI集群是由多台包含CPU、内存、GPU的服务器组成,需要考虑机器内通信和机器间通信。 机器内通信通常包括共享内存、PCIe、NVLink等方式,机器间主要通过 阅读全文
posted @ 2023-02-15 18:06 JadePeng 阅读(355) 评论(0) 推荐(0) 编辑
摘要: ChatGPT的推出,人工智能正式进入大模型时代。要训练一个chatgpt这样的大模型,需要分布式AI集群的支持。 深度学习迎来大模型 Open AI的GPT-3模型,使用512张V100,需要训练7个月。现在的大模型训练,离不开分布式训练,通过分布式训练来加速训练过程,减少耗时。 分布式并行架构 阅读全文
posted @ 2023-02-15 18:05 JadePeng 阅读(469) 评论(0) 推荐(0) 编辑
摘要: [Transformers](https://huggingface.co/docs/transformers/index) 是由 [Hugging Face](https://huggingface.co/) 开发的一个 NLP 包,支持加载目前绝大部分的预训练模型。随着 BERT、GPT 等大规模语言模型的兴起,越来越多的公司和研究者采用 Transformers 库来构建 NLP 应用。 阅读全文
posted @ 2022-12-07 16:51 JadePeng 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 🤗 Optimum是Transformers的🤗扩展,它提供了一组性能优化工具,以最高效率在目标硬件上训练和运行模型。 阅读全文
posted @ 2022-12-07 16:42 JadePeng 阅读(879) 评论(0) 推荐(0) 编辑
摘要: 基于golang开发wasm模块 阅读全文
posted @ 2022-05-12 11:02 JadePeng 阅读(1622) 评论(0) 推荐(0) 编辑
摘要: 引入pdf2dom <dependency> <groupId>net.sf.cssbox</groupId> <artifactId>pdf2dom</artifactId> <version>1.8</version> </dependency> 测试代码: import java.io.Fil 阅读全文
posted @ 2022-03-21 14:08 JadePeng 阅读(3030) 评论(1) 推荐(1) 编辑
摘要: 读取git日志,为hexo博客生成修改日志(change log) 阅读全文
posted @ 2021-12-14 18:51 JadePeng 阅读(176) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 23 下一页