摘要:        
本文提出MNEME框架,通过稀疏模型差分技术预测大语言模型在微调或知识遗忘过程中产生的副作用,如跨领域性能下降,无需依赖微调数据即可实现95%的准确率预测,并提供部分逆转效果的方法。    阅读全文
posted @ 2025-07-30 22:21
CodeShare
阅读(24)
评论(0)
推荐(0)
        
            
        
        
摘要:        
本文介绍了Inworld TTS-1,这是一组基于Transformer的自回归文本转语音模型。TTS-1-Max拥有88亿参数,专为高质量和表现力设计;TTS-1则具有16亿参数,适用于实时语音合成和边缘设备。这些模型通过预训练、微调和强化学习对齐实现了最先进的性能,支持11种语言,具有精细的情感控制和48kHz高分辨率语音生成能力。    阅读全文
posted @ 2025-07-30 21:11
CodeShare
阅读(56)
评论(0)
推荐(0)
        
            
        
        
摘要:        
本文提出RATE,一种基于大型语言模型(LLM)的检索增强生成技术提取管道,结合RAG和多定义LLM验证方法,在脑机接口和扩展现实领域案例中实现91.27%的F1分数,显著优于BERT模型。    阅读全文
posted @ 2025-07-30 20:01
CodeShare
阅读(30)
评论(0)
推荐(0)
        
            
        
        
摘要:        
亚马逊学者Thomas Brox探讨计算机视觉的未来发展趋势,重点关注无监督学习、生成模型以及机器学习与几何学的结合,认为这些方向可能带来新的突破。    阅读全文
posted @ 2025-07-30 19:13
CodeShare
阅读(30)
评论(0)
推荐(0)
        
            
        
        
摘要:        
本文介绍了RoD-TAL多模态数据集,用于评估大语言模型和视觉语言模型在罗马尼亚驾驶法律问答任务中的表现,包括信息检索、问答系统等技术实现细节。    阅读全文
posted @ 2025-07-30 14:06
CodeShare
阅读(12)
评论(0)
推荐(0)
        
            
        
        
摘要:        
亚马逊与德国马普学会合作成立首个美国境外科学中心,聚焦人工智能、计算机视觉和机器学习研究,通过联合研究、工业奖学金和社区活动推动技术创新。    阅读全文
posted @ 2025-07-30 12:41
CodeShare
阅读(31)
评论(0)
推荐(0)
        
            
        
        
摘要:        
亚马逊Alexa AI团队开发的DataTuner系统通过端到端神经网络架构,将知识图谱等结构化数据转换为语义准确且流畅的自然语言文本,在COLING 2020会议上以BLEU评分提升1.2-5.9点的优势刷新了该领域技术基准。    阅读全文
posted @ 2025-07-30 09:01
CodeShare
阅读(28)
评论(0)
推荐(0)
        
            
        
        
摘要:        
亚马逊研究人员提出一种创新方法,通过智能分配数据库表分布键,将多表查询的通信开销降低高达97%。该方法已整合至Amazon Redshift Advisor,帮助客户优化查询性能。    阅读全文
posted @ 2025-07-30 08:02
CodeShare
阅读(51)
评论(0)
推荐(0)
        
            
        
        
摘要:        
本文提出了一种通过知识蒸馏实现多任务异步收敛的新方法,允许不同任务按自身节奏收敛并保持峰值性能,在电商数据集上的实验显示其优于传统损失加权方法1.5%。    阅读全文
posted @ 2025-07-30 06:03
CodeShare
阅读(21)
评论(0)
推荐(0)
        
 
                    
                
 浙公网安备 33010602011771号
浙公网安备 33010602011771号