摘要: 【项目复现上新】多模态AI数字人上线,Linly-Talker让你与苏东坡面对面! “讲《赤壁赋》时,我拿着图片反复讲解,学生们却还是眼神涣散;想和同好聊聊苏东坡的豁达人生,翻遍典籍也找不到‘实时回应’的共鸣。”你是否也有过这样的遗憾? 之前我们通过LLaMA Factory微调实战,打造了能以苏东 阅读全文
posted @ 2026-01-15 13:57 Lab4AI大模型实验室 阅读(2) 评论(0) 推荐(0)
摘要: 上海交通大学破解声音分离与提取的核心难题 论文标题:USE: A Unified Model for Universal Sound Separation and Extraction 作者团队:上海交通大学、南京大学等 发布时间:2025年12月24日 论文链接:https://arxiv.org 阅读全文
posted @ 2026-01-14 16:29 Lab4AI大模型实验室 阅读(5) 评论(0) 推荐(0)
摘要: LLama-Factory官方课程答疑汇总+课程内容升级(多模态实战) 作为大模型微调领域的热门工具,LLaMA-Factory 凭借高效适配性成为开发者首选,但显存溢出、数据格式不兼容、训练进程异常等问题,往往成为项目推进的 “拦路虎”。 为解决实战中的核心痛点,我们联合 LLaMA-Factor 阅读全文
posted @ 2026-01-13 14:29 Lab4AI大模型实验室 阅读(6) 评论(0) 推荐(0)
摘要: 寻找百万「论文头号玩家」计划 | 首批复现体验官开放申请,最高可获500元算力金 你是否曾在阅读论文时,被复杂的公式与术语困扰? 是否因为缺乏算力或合适的平台,而难以动手复现论文中的算法? 又或者,在面对传统高门槛的复现活动时,无从入手? Lab4AI大模型实验室与GitLink开源创新服务平台携手 阅读全文
posted @ 2026-01-12 15:13 Lab4AI大模型实验室 阅读(3) 评论(0) 推荐(0)
摘要: 榨干H100算力!GLM-4.6V×vLLM 极致推理实战:从9B到106B MoE的全链路优化 我是大模型实验室Lab4AI,一个面向高校科研人员、AI开发者、行业用户及AIGC创作者的高性能GPU场景内容社区,持续分享火热项目实战。 最近,我完成了一个GLM-4.6V与vLLM的深度整合项目,成 阅读全文
posted @ 2026-01-07 17:29 Lab4AI大模型实验室 阅读(20) 评论(0) 推荐(0)
摘要: 加量不加价!《从零开始玩转LLaMA Factory 大模型微调》新增多模态实战项目 大模型下半场,卷文字已成过去式,多模态才是真未来! AI的竞争已经从“比谁能写诗”进化到了“比谁能看世界”。 如果你还困在纯文本对话的围城里,只能眼睁睁看着多模态技术突破一维文本的限制,在更高维度的信息处理中,实现 阅读全文
posted @ 2025-12-29 16:39 Lab4AI大模型实验室 阅读(14) 评论(0) 推荐(0)
摘要: 科研党狂喜!PaperDebugger 让 AI 在编辑器内帮你写完论文 论文标题:PaperDebugger: A Plugin-Based Multi-Agent System for In-Editor Academic Writing, Review, and Editing 作者团队:新加 阅读全文
posted @ 2025-12-29 16:26 Lab4AI大模型实验室 阅读(16) 评论(0) 推荐(0)
摘要: 告别修图翻车!阿里Qwen团队 & 港科大提出Qwen-Image-Layered ,面向内在可编辑性的图层分解 论文标题:Qwen-Image-Layered: Towards Inherent Editability via Layer Decomposition 作者团队:香港科技大学、阿里巴 阅读全文
posted @ 2025-12-29 16:08 Lab4AI大模型实验室 阅读(35) 评论(0) 推荐(0)
摘要: 港大团队提出DeepCode ,让 Agent 真能“读论文写可运行代码” 01 论文概述 这篇论文来自香港大学团队(通讯作者:Chao Huang)。论文提出并开源了 DeepCode :一个能“自动写项目”的智能体框架,想解决的不是让模型多写几段代码,而是让它读完论文或技术文档后,能把一整套代码 阅读全文
posted @ 2025-12-29 15:47 Lab4AI大模型实验室 阅读(17) 评论(0) 推荐(0)
摘要: 为什么你开了多卡,训练反而更慢? 在模型规模不断增大的今天,多机多卡几乎是每个团队都会走到的一步。 但在真实训练中,很多团队会遇到一个反直觉的现象:卡是加了,训练却没有明显变快,甚至在某些阶段还变慢了。 在多个主流训练框架和工程实践中,都能看到类似反馈:当GPU 数量从 4 卡扩展到 8 卡、16 阅读全文
posted @ 2025-12-26 10:14 Lab4AI大模型实验室 阅读(29) 评论(0) 推荐(0)