会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
acmloser
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
···
75
下一页
2023年9月19日
1. illumina测序原理
摘要: 本人的生物只有高中且4年没碰的水平,如果涉及生物的笔记没写对请见谅. 1. 一个典型的生物信息分析 我们在做生物信息分析时,常常是有一个目的,比如分析为什么某朵花是红色的.假设我们在做转录组数据分析,流程一般如下图所示: 得到数据后,我们会进行标准分析,得到一些信息比如基因表达信息、突变信息等,这个
阅读全文
posted @ 2023-09-19 17:35 acmloser
阅读(1325)
评论(0)
推荐(1)
2023年9月11日
LHY2022-HW04-Speaker Identification
摘要: 1. 实验 1.1 背景介绍 根据输入音频判断是哪个讲话者. 1.2 数据集 数据集采用的是\(VoxCeleb2\).可以看这个Click了解数据集. 1.2.1 Data formats 目录下有三个json文件和很多pt文件,三个json文件作用标注在下图中,pt文件就是语音内容.其中,n_m
阅读全文
posted @ 2023-09-11 01:15 acmloser
阅读(58)
评论(0)
推荐(0)
2023年7月8日
4.5 Unsupervised Learning: Word Embedding
摘要: # 1. Introduction(引入) 词嵌入(word embedding)是降维算法(Dimension Reduction)的典型应用. 最经典的做法就是1-of-N Encoding,它指的就是每一个字都是以向量来表示,只有在自己所属的那个字词索引上为1,其余为0,因此如果世界上的英文字
阅读全文
posted @ 2023-07-08 21:22 acmloser
阅读(84)
评论(0)
推荐(0)
2023年7月7日
4.4 Graph Nerual Networks(GNN)
摘要: # 1. Introduction GNN简单来说就是Graph + Nerual Networks,关键问题就是将图的结构和图中每个节点和边的特征转化为一般的神经网络的输入(张量). 
评论(0)
推荐(0)
2023年7月5日
4.3 Recurrent Neural Network (RNN) II
摘要: # 1. RNN 怎么学习 ## 1.1 Loss Function 如果要做learning的话,你要定义一个cost function来evaluate你的model是好还是不好,选一个parameter要让你的loss 最小.那在Recurrent Neural Network里面,你会怎么定
阅读全文
posted @ 2023-07-05 21:02 acmloser
阅读(35)
评论(0)
推荐(0)
2023年7月4日
4.2 Recurrent Neural Network (RNN) I
摘要: # 1. 问题引入 在NLP领域,存在一个重要的子任务即Slot Filling(槽位填充).比如有一个人对订票系统说“I would like to arrive Taipei on November 2nd”,那么系统要自动识别出Taipei属于Destination这个slot,Novembe
阅读全文
posted @ 2023-07-04 00:40 acmloser
阅读(45)
评论(0)
推荐(0)
2023年7月2日
4.1 Self-attention
摘要: # 1. 问题引入 我们在之前的课程里遇到的都是输入是一个向量,输出是类别或者标量.但如果输入是向量的集合且向量长度还会变化,又应该怎么处理呢? 
评论(0)
推荐(0)
2023年6月19日
LHY2022-HW03-Image Classification
摘要: # 1. 实验 ## 1.1 背景介绍 将食物分成11个类别.  ## 1.2 输出文件格式 两列,一列
阅读全文
posted @ 2023-06-19 13:55 acmloser
阅读(60)
评论(0)
推荐(0)
2023年6月18日
3.3 Spatial Transformer
摘要: # 请复习线性代数 # 1. Spatial Transformer Layer ## 1.1 CNN is not invariant to scaling and rotation (1) CNN并不能真正做到scaling和rotation. (2) 如下图所示,在通常情况下,左右两边的图片对
阅读全文
posted @ 2023-06-18 18:08 acmloser
阅读(157)
评论(0)
推荐(0)
2023年6月17日
3.2 鱼与熊掌可以兼得的深度学习-2022
摘要: # 1. 问题回顾 在上节的再谈宝可梦、数码宝贝分类问题上,我们提出了机器学习的分类原理.并提出了一个矛盾点:当可选参数过多,loss会变小,但理想和现实差距会很大;当可选参数比较少,loss会变大,但理想和现实差距会减小.现在我们需要一个Loss小,可选参数也少的模型. 
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
···
75
下一页
公告