上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 130 下一页
摘要: 补充一下迁移学习 迁移学习用微调比较多。比如我们按照图像分类去训练了一个神经网络,但是我们现在想要将这个神经网络运用在\(X\)光图像识别上。这就是迁移学习 方法: 我们的新数据(指的是\(X\)光图片)不多 微调(fine tuning)神经网络的最后一层即可,也就是将最后一层的参数重新初始化并训 阅读全文
posted @ 2025-03-20 22:02 最爱丁珰 阅读(13) 评论(0) 推荐(0)
摘要: 除了书上的方法,还有如下方法 人工分析训练集和验证/测试集的差异。以车载语音识别为例,假设发现验证/测试集有很多杂声(如汽车的引擎声等等),或者说包含很多街道的名字(说明模型不擅长识别街道名字)。 收集训练集中不包含的,但是验证集中有的新数据进行训练;或者对已有数据进行修改,使其包含验证集中数据的特 阅读全文
posted @ 2025-03-20 21:58 最爱丁珰 阅读(24) 评论(0) 推荐(0)
摘要: 注意,GPT只基于Transformer的解码器,没有基于编码器。GPT的主要任务是根据已经给了的句子预测下一个词(这本来就是语言模型干的事,不是说语言模型非要进行机器翻译的)。回忆一下,我们在训练Transformer的时候,解码器的部分也是有mask的(尽管我们输入的是一个完整的句子),所以解码 阅读全文
posted @ 2025-03-20 08:54 最爱丁珰 阅读(8) 评论(0) 推荐(0)
摘要: 首先介绍一下早期的多模态模型 现在我们有视觉模型和语言模型 我们现在要把图片嵌入和词嵌入放到同一个空间中,这个时候就要定义一种评估函数,让相近的文字和图片挨在一起,不相近的则远离 除了跨模态迁移(就是结合图片和文本,上面的方法),也可以将他们融合,一起反映多模态词嵌入。一个著名的算法就是视觉词袋 举 阅读全文
posted @ 2025-03-18 16:50 最爱丁珰 阅读(18) 评论(0) 推荐(0)
摘要: 那么LLM是否也可以进行推理呢?之前我们学过,LLM可以通过提示词或者few-shot,zero-shot-Cot等进行推理。下面介绍一个新方法:自我一致性(Self-Consistency) 下面来看一下效果 还有一种策略:将一个问题分解成多个小问题逐个解决 这种方法的泛化性甚至很好,也就是说我们 阅读全文
posted @ 2025-03-17 14:41 最爱丁珰 阅读(17) 评论(0) 推荐(0)
摘要: 目录公共白板的作用可视化工作流程实时协作与问题发现促进持续改进每日站会的作用同步信息与对齐目标快速响应与问题解决增强团队责任感与透明度聚焦目标与优先级两者协同增效 公共白板(如看板、Scrum板)和每日站会是敏捷开发中常用的协作工具和实践,它们通过可视化、透明化和持续沟通,帮助团队提升效率、减少摩擦 阅读全文
posted @ 2025-03-16 22:37 最爱丁珰 阅读(32) 评论(0) 推荐(0)
摘要: \((3)\) 看不懂答案在说什么。。一般来说,就认为点积既有方向的元素也有长度的元素,而求和只有长度的元素,所以点积更好(比如两个方向垂直的向量) 阅读全文
posted @ 2025-03-16 09:49 最爱丁珰 阅读(9) 评论(0) 推荐(0)
摘要: Problem Set 3.1 Problem 3.1.1 \((1)\)利用二分答案。令\(l,r\)表示答案存在的区间(初始化\(l=2,r=n-1\))。在每一次二分中:令\(m=\lfloor\frac{l+r}{2}\rfloor\),判断\(A[m]\)与其两个邻居之间的大小关系,若\( 阅读全文
posted @ 2025-03-15 20:46 最爱丁珰 阅读(36) 评论(0) 推荐(0)
摘要: \((5)\) 他这个答案算是一种方式吧,但是你说不能令一个time就是一个num_steps吗?我觉得可以 阅读全文
posted @ 2025-03-15 18:50 最爱丁珰 阅读(9) 评论(0) 推荐(0)
摘要: 我觉得他这种读取的方法比较幽默,后面的机器翻译什么的,全部都是用的截断和填充,不知道他这么读取的意义在哪里 阅读全文
posted @ 2025-03-15 18:45 最爱丁珰 阅读(5) 评论(0) 推荐(0)
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 130 下一页