会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
不积跬步无以至千里
研究领域:深度学习,图像处理
联系方式:vladimirputin@foxmail.com
不必高看自己,也不必贬低自己
博客园
首页
新随笔
联系
管理
上一页
1
···
24
25
26
27
28
29
30
31
32
···
91
下一页
2023年9月8日
gradio传输zip包并在后台解压
摘要: 要使用 gradio.inputs.File 组件来上传 ZIP 压缩包,你可以按照以下方式进行操作: import gradio as gr import zipfile # 创建一个简单的 Gradio 界面 iface = gr.Interface( fn=None, # 函数将在后面定义 i
阅读全文
posted @ 2023-09-08 09:33 海_纳百川
阅读(628)
评论(0)
推荐(0)
2023年9月7日
Bert解读
摘要: BERT是2018年10月由Google AI研究院提出的一种预训练模型。BERT的全称是Bidirectional Encoder Representation from Transformers(可翻译为:基于transformer的双向编码器)。BERT在机器阅读理解顶级水平测试SQuAD1.
阅读全文
posted @ 2023-09-07 22:55 海_纳百川
阅读(38)
评论(0)
推荐(0)
2023年8月31日
pytorch报错IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Python
摘要: 该错误消息表示您正在尝试索引其中只有一项的数组。例如, In [10]: aten = torch.tensor(2) In [11]: aten Out[11]: tensor(2) In [12]: aten[0] IndexError Traceback (most recent call l
阅读全文
posted @ 2023-08-31 10:22 海_纳百川
阅读(246)
评论(0)
推荐(0)
大语言模型LLM网络结构介绍
摘要: 大语言模型(Large Language Model,LLM)的网络结构通常基于深度神经网络,其中最常见的是基于变换器(Transformer)架构的模型。以下是一般情况下大语言模型(如GPT系列)的网络结构概述: 多层变换器(Multi-layer Transformers):大语言模型通常由多个
阅读全文
posted @ 2023-08-31 09:05 海_纳百川
阅读(1195)
评论(0)
推荐(0)
transformer解读-更新中
摘要: Transformer是一种基于注意力机制的深度学习架构,专门用于处理序列数据,尤其在自然语言处理领域取得了重大突破。它由Google于2017年首次提出,并在各种NLP任务中表现出色,如机器翻译、文本生成和情感分析。 主要特点包括: 自注意力机制:Transformer的核心是自注意力(Self-
阅读全文
posted @ 2023-08-31 08:58 海_纳百川
阅读(69)
评论(0)
推荐(0)
2023年8月30日
nlp基础知识
摘要: 自然语言处理(Natural Language Processing,NLP)涉及处理人类语言以及与之相关的任务。以下是NLP的一些基础知识领域: 文本预处理: 分词(Tokenization):将文本拆分为单词或子词的过程。 停用词去除(Stopword Removal):去除常见但不携带重要信息
阅读全文
posted @ 2023-08-30 09:42 海_纳百川
阅读(63)
评论(0)
推荐(0)
GPU单机多卡训练
摘要: 多卡训练的主要思想是将训练数据分成多个批次或样本,在每个GPU上分别处理这些数据,然后将各个GPU计算得到的梯度进行聚合,最终更新模型参数。这样可以显著加快训练过程,特别是对于大规模的深度学习模型。 多卡训练需要考虑到数据划分、梯度聚合和模型参数同步等问题,以确保各个GPU上的计算结果能够正确地协同
阅读全文
posted @ 2023-08-30 09:36 海_纳百川
阅读(238)
评论(0)
推荐(0)
分布式深度学习技术概述
摘要: 分布式深度学习技术有哪些? 分布式深度学习技术是指将深度学习模型的训练过程分布在多个计算资源上进行加速的技术。这样可以充分利用集群中的多个GPU、CPU或者多台计算机,加快深度学习模型的训练过程,提高训练效率。以下是一些常见的分布式深度学习技术: 数据并行:将训练数据划分成多个子集,每个计算节点使用
阅读全文
posted @ 2023-08-30 09:32 海_纳百川
阅读(172)
评论(0)
推荐(0)
PyTorch多卡分布式训练DDP单机多卡
摘要: 前言 因为课题组发的卡还没有下来,先向导师问了实验室的两张卡借用。之前都是单卡训练模型,正好在这个机会实践以下单机多卡训练模型的方法。关于 DDP 网上有很多资料,但都比较零碎(有些博客的代码甚至没办法 run),Pytorch 给出的官方文档看起来也比较吃力。因此这篇文章的主要目的是梳理一下笔者学
阅读全文
posted @ 2023-08-30 08:59 海_纳百川
阅读(3124)
评论(1)
推荐(1)
2023年全球十大大模型简介
摘要: <转>https://baijiahao.baidu.com/s?id=1770560671091860606&wfr=spider&for=pc 据统计,到目前为止,全球已经发布了数百个大模型。但是,哪些是最有能力的?哪些是最受业界关注的?请关注笔者列出的《2023年全球最佳大模型》。 1. GP
阅读全文
posted @ 2023-08-30 08:42 海_纳百川
阅读(218)
评论(0)
推荐(0)
上一页
1
···
24
25
26
27
28
29
30
31
32
···
91
下一页
公告
本站总访问量
次