AI
刷新
Code commit diff file文件LLM代码审查

博主头像 Code Commit(代码提交)代码提交是软件开发过程中的一个重要环节,它标志着开发者将编写的代码更改正式提交到版本控制系统中。代码提交通常伴随着提交信息(commit message),该信息用于描述此次更改的目的、内容以及可能的影响。在代码审查过程中,审查者会仔细查看这些提交信息以及对应的代码 ...

ChatBI≠NL2SQL:关于问数,聊聊我踩过的坑和一点感悟

博主头像 "如果说数据是新时代的石油,智能问数就是能让普通人也能操作的智能钻井平台。" 这里是**AI粉嫩特攻队!** ,这段时间真的太忙了,不过放心,关于从零打造AI工具的coze实操下篇正在进行中。今天,我们先聊聊另一个很热闹的主题——ChatBI。 还记得那些陷入Excel地狱的日子吗?当同事问你"上个 ...

线性代数笔记20.SVD分解及其应用

博主头像 20.SVD分解及其应用 20.1 奇异值的概念 设存在复数矩阵\(A_{mn}\),且\(R(A)=r\) 则对矩阵\((A^H\cdot A)_{nn}\)的特征值进行分析如下: 设存在n阶行向量\(x\),则可将\((A^H\cdot A)_{nn}\)转换为二次型,可得: \[\qquad ...

Transformer 笔记 (CS224N-7)

博主头像 模型回顾 问题:RNN需要经过k步才能对远距离的单词进行交互,例如 这里的was是chef的谓语,二者的关系十分紧密,但是使用线性顺序分析句子会导致如果was和chef的距离较远,它们会难以交互(因为梯度问题) Self Attention 键值对注意力 (1)我们可以将注意力视为在键值存储中执行模 ...

依存结构与依存分析笔记 (CS224N-3)

博主头像 依存结构 与编译器中的解析树类似,NLP中的解析树是用于分析句子的句法结构。使用的结构主要有两种类型——短语结构和依存结构。短语结构文法使用短语结构语法将词组织成嵌套成分。后面的内容会展开对它做更详细的说明。我们现在关注依存语法。 句子的依存结构展示了单词依赖于另外一个单词 (修饰或者是参数)。词与 ...

词向量笔记 (CS224N-1)

博主头像 传统方式 先探讨一个问题,我们怎么获取一个词语有用的含义? 以前常用的NLP解决方法,使用WordNet,这是一个包含同义词和上位词列表的同义词库 传统NLP中,我们用独热向量作为特征,这导致需要的特征向量维度过大,且由于独热向量都是正交的,所以词与词之间没有关联。 Word2Vec Word2Ve ...

LLM生成代码后,如何一键合并到源代码中(FastApply技术研究)

博主头像 背景 在大语言模型越来越火的今天,越来越多的应用场景开始使用大语言模型来解决实际问题。而辅助编程可以算是大语言模型应用得最成功的场景之一了。早先的时候,更多使用的还是代码补全的能力,但是现在,各家产品都开始支持Chat和Agent的能力了。 之前一直有个疑问,生成的代码明明只是片段,也没有一个很好的 ...

【搜广推打怪升级】1. ItemCF实践

前言:本人开通此博客,期望能够督促自己提升代码能力。 个人情况:本2泛商科专业,9硕在读,较熟悉sql数据处理,仅有一点python皮毛。 今天正式开始搜广推打怪升级之路。 其实在开始今天的博客之路之前,已经基本过了一遍①王树森老师的推荐算法公开课(b站直搜即可),②项亮老师的《推荐系统实践》,③王 ...

Manus爆火,是硬核还是营销?

博主头像 Manus是一款引发热议的通用Agent产品,凭借强大任务处理能力及营销手段备受关注,其爆火带动了开源复刻潮,并为垂直领域智能体开发提供灵感,如图数据库智能体Chat2Graph。 ...

通义灵码-实现开源项目分析

博主头像 开始以下是我们使用VSCODE+TONGYI LINGMA插件实现开源项目分析,灰色字是我们提示词。我们用开源项目ThingsBorad测试。Qwen 2.5-Max 是阿里巴巴推出的一款超大规模的混合专家模型(Mixture of Experts, MoE)数据规模:Qwen 2.5-Max 基于 ...

关于我用Claude 3.7 Sonnet模型直接生成小程序

博主头像 关于我用Claude 3.7 Sonnet模型直接生成小程序 前言 最近AI一直是很火的话题,Deepseek也是一夜爆火,但是实际使用下来发现Deepseek好像和其他大模型一样,并没有什么厉害之处,而且官网经常服务器繁忙。 当我使用Claude 3.7 Sonnet之后才算是被惊讶到,在此之前我 ...

10 卷积神经网络CNN原理

博主头像 1. 全连接层 前文中我们讨论的几乎都是全连接层,也就是在层间,每个神经元都与前一层的所有神经元相连接,如图: 也就是每层的每个feature,都与前一层所有features相关联,是前一层所有features乘以一个权重矩阵W得来的。(这里为了简化理解,我们暂不考虑bias,activation ...

一文读懂知识蒸馏

博主头像 一文读懂知识蒸馏 一句话解释:知识蒸馏是一种模型压缩技术(model compression technique),通过让小模型(学生模型)学习大模型(教师模型)的输出或中间表示,以在保持精度的同时减少计算量和存储需求。 传统意义上的知识蒸馏 背景知识及总览 Bucilua等人(2006年)首次提出 ...

从家用显卡到AI文生视频——Wan2.1本地部署教程与一键包分享

博主头像 今天要聊一聊AI文生视频的最新进展。一直以来,AI生成视频对硬件的要求都让人望而却步,尤其是家用显卡,总是感觉“心有余而力不足”。 AI文生视频以前 基本需要的显存大概几十上百G 但最近,阿里开源的 Wan2.1 彻底改变了这一局面!它不仅让普通消费级GPU也能轻松生成视频,还能在短短10分钟左右搞 ...

MM-LLM 数据侧论文速读

博主头像 LAION-5B 提出 CLIP 得分来计算文本图像 embedding 之间的余弦相似度的筛选方法 使用 CLIP 筛选图像文本对,过滤相似度得分低于0.28的数据 DataComp 多模态数据集作为 MM-LLM 发展的关键组成部分,没有得到充分的研究关注。为了弥补这一不足,我们引入了 Data ...

<1···383940···50>