会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
乐池
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
···
8
下一页
2024年5月27日
8. 聚合函数练习题
摘要: 【题目】 1.where子句可否使用组函数进行过滤? select max(salary), min(salary), avg(salary), sum(salary) from employees e ; 2.查询公司员工工资的最大值,最小值,平均值,总和 select max(salary),
阅读全文
posted @ 2024-05-27 15:44 乐池
阅读(15)
评论(0)
推荐(0)
2024年5月11日
Transformer电力负荷预测
摘要: 1. 初始解释 1.1 参数 S:源序列长度,比如说我们有过去一周(7天)的电力负荷数据,那么 S 就是 7 天的数据点数目,每个数据点可能代表一个小时或者更短的时间间隔。 T:目标序列长度,假设我们想要预测未来一天(24小时)的电力负荷,那么 T 就是 24 个时间步,每个时间步代表一个小时。 N
阅读全文
posted @ 2024-05-11 22:17 乐池
阅读(421)
评论(0)
推荐(0)
2024年4月11日
5. bn和ln
摘要: batchnormalization和layernormalization,主要区别在于 normalization的方向不同。 normalization Normalization:规范化或标准化,就是把输入数据X,在输送给神经元之前先对其进行平移和伸缩变换,将X的分布规范化成在固定区间范围的标
阅读全文
posted @ 2024-04-11 23:37 乐池
阅读(106)
评论(0)
推荐(0)
2024年4月1日
3. dataset、dataloader
摘要: dataset 数据集 dataloader 数据加载器 1. AI训练时的需求 有一个数据集文件来,里面有100w的样本和标签 训练时,通常希望,一次在100w中随机抓取batch个样本,拿去训练 如果全部抓取完毕,则重新打乱后,再来一次 2. dataset,数据集 作用:储存数据集的信息sel
阅读全文
posted @ 2024-04-01 22:05 乐池
阅读(41)
评论(0)
推荐(0)
2. 脚本、模块、包
摘要: 在python眼中,程序是如何被划分的 1.脚本(script) 被运行的python代码,称之为脚本,run xxx.py,xxx.py就会被视为脚本 2.模块(module),为何需要提出模块的概念 对应的就是xxx.py 模块化你的程序 上图这样管理更加清晰有条理 module 的概念是相对的
阅读全文
posted @ 2024-04-01 18:15 乐池
阅读(6)
评论(0)
推荐(0)
2024年3月31日
1. argparse
摘要: argparse,argumentparse 1. 终端执行操作 python run.py 如果要在这段命令中添加其他代码呢?例如 python run.py 5 6 让他给我输出5*6的结果 2. sys import sys # 假设终端输入python run.py 5 6 print(sy
阅读全文
posted @ 2024-03-31 21:10 乐池
阅读(10)
评论(0)
推荐(0)
2024年3月27日
3. 什么是模块
摘要:  
阅读全文
posted @ 2024-03-27 20:58 乐池
阅读(8)
评论(0)
推荐(0)
2024年3月22日
4.transformer
摘要: 建议直接看参考的知乎链接,我这是一坨 1. encorder \[\mathrm{LayerNorm}\big(X+\mathrm{MultiHeadAttention}(X)\big) \]\[\mathrm{LayerNorm}\big(X+\mathrm{Feed}\mathrm{Forwar
阅读全文
posted @ 2024-03-22 21:46 乐池
阅读(17)
评论(0)
推荐(0)
2024年3月20日
2. 论文写作模板
摘要:
阅读全文
posted @ 2024-03-20 20:15 乐池
阅读(6)
评论(0)
推荐(0)
2024年3月19日
3. 注意力机制
摘要: 深度学习中的注意力机制(Attention Mechanism)是一种模仿人类视觉和认知系统的方法,它允许神经网络在处理输入数据时集中注意力于相关的部分。通过引入注意力机制,神经网络能够自动地学习并选择性地关注输入中的重要信息,提高模型的性能和泛化能力。 最典型的注意力机制包括自注意力机制、空间注意
阅读全文
posted @ 2024-03-19 19:52 乐池
阅读(99)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
···
8
下一页
公告