我是一名长期使用C#开发后台服务与数据库的开发者,在短短20天内,独立完成一个跨前后端、贴合医疗健康场景分析的完整系统(Ai体征分析助手)是未曾想过的。得益于AI Coding工具的深度实践与应用和医疗领域大模型的应用,让我对AI时代的软件开发有了全新的认知。 ...
长亭MonkeyCode AI开发平台上线:免费算力赋能,AI助力全场景工程级研发落地 当前AI编程工具层出不穷,但多数仅能应对“代码撰写、Demo运行”的基础场景,难以匹配真实工程研发的复杂诉求。长亭科技全新推出的AI开发平台MonkeyCode,成功突破这一行业瓶颈——平台以企业级研发标准构建, ...
核心摘要 (TL;DR) 目标:为本地的 Ollama 模型穿上漂亮的图形化界面 (GUI)。 工具:Docker + Open WebUI (社区最活跃的开源 WebUI)。 核心功能:媲美 ChatGPT 的对话界面、本地知识库 (RAG)、自定义角色 (Agent)。 相信各位友人在上一篇文章 ...
Claude Code(Anthropic 推出的 AI 命令行编程工具)的团队内部使用指南。它系统地总结了高效使用该工具的 10 个核心技巧,旨在将 AI 从简单的“自动补全”提升为“协同开发者”。以下是梳理的详细解读:一、 核心效率指标图片右上角标注了四个关键目标:10个核心技巧。3-5个并行会 ...
简介 YOLO是目前计算机视觉领域最前沿、应用最广泛的目标检测算法框架,他能快速识别区分目标,广泛应用于游戏,无人驾驶,工业等领域。 以识别躲避掉落滑块的游戏的物体图片作为例子。 一,环境配置 pip install ultralytics 二,准备数据集 这个格式目录如下: my_dataset/ ...
简介 Gymnasium 为强化学习提供了一个标准化的API,它定义了 Agent 应该如何观察世界、如何做出动作以及如何获得奖励,不管是游戏,还是工业设备,只需要满足Gymnasium标准都能使用同一套代码进行训练。 认识Gymnasium 使用stable_baseline3只需要定义好Gymn ...
简介 stable_baseline3 是一个基于 PyTorch 的强化学习算法开源库,里面集成了多种强化学习算法,使用这个开源库能够让我们不需要过度关注强化学习算法细节,专注于AI业务的开发。 环境配置 pip install stable-baselines3 pip install gymn ...
claude模型有以下版本:haiku(诗),Sonnet(好诗),Opus(杰作) claude不同模型之间对比 模型版本 速度 成本 智力水平 最佳应用场景 Haiku 极快 ⚡️ 最低 入门级 客服、翻译、大量简单数据清洗 Sonnet 快 中等 高级 (主流) 编程、日 ...
智能客服失败常因误将“问答机器人”当“服务处理器”。其核心不在答对,而在判断:是否该答、答到哪、何时转人工、如何安抚。微调非万能,仅适用于稳定风格、固化明确规则、强化安全拒答三类场景;知识更新、动态状态、争议判断等问题,应交由RAG或规则系统处理。 ...
PPO微调本质是“行为选择”而非“知识学习”:它不教模型新能力,而是通过奖励信号与KL约束,在已有能力空间中重校输出概率分布,对齐人类偏好。核心只更新Policy,Reward引导方向,KL保障安全,专治风格、安全、边界问题。 ...
本文详细介绍通义深度搜索的操作指南,含应用开通,应用管理,应用配置,场景选择,检索配置,应用测试,应用发布,联系我们等。 ...
RAG项目常败在文档切分:切得过小导致语义断裂,固定长度破坏表格/列表/步骤等关键结构。真正决定效果的,不是模型或向量库,而是chunk是否具备“语义完整性”——能否独立支撑答案。切分应以“生成可用性”为第一标准,而非检索便利性。 ...
本文介绍如何通过Java SDK获取已创建的Collection的状态和Schema信息。 前提条件 已创建Cluster 已获得API-KEY 已安装最新版SDK 接口定义 Java // class DashVectorClient public Response<CollectionMeta> ...
RAG并非万能,默认滥用反致系统复杂、效果难测。它仅解决“信息获取”,不提升模型能力。最适合四类场景:动态知识更新、需答案溯源、长尾问题密集、需求尚不明确。慎用于强推理、隐性经验、高实时性及高确定性要求场景。核心判断:问题是“找不到信息”,还是“不会处理信息”? ...
随着 AI 应用进入规模化阶段,时序模型的挑战,正逐步从算法本身,扩展到数据与基础设施层面。 训练越来越重、数据越来越多、部署越来越复杂—— 你是否也在思考: ❓时序模型训练,如何摆脱数据准备与 I/O 瓶颈? ❓多个模型版本,如何统一管理、部署与复用? ❓从模型训练到线上应用,如何真正跑在一个稳定 ...
微调不是“温和调教”,而是将敏感信息固化进模型参数的风险交换过程。它会放大偶然数据中的隐私隐患,导致过拟合式泄露、隐式模式记忆与不可撤回的记忆固化。安全边界模糊,内部使用反而更易触发风险。真正可控的路径:先RAG,再小步微调,始终以风险而非效果为决策核心。 ...
写在前面 你是不是也遇到过这种情况:昨天用 Claude Code 写了一段复杂业务逻辑,今天重新打开项目,AI 助手却像失忆了一样,完全不记得你们讨论过什么,只能从头再解释一遍? 这个痛点,Claude-Mem 给出了解决方案——一个专为 Claude Code 打造的持久化记忆系统,让 AI 助 ...
当前,生成式人工智能大模型快速普及,其安全可控性直接关系国家安全、社会公共利益及公民合法权益。根据国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》(国家互联网信息办公室令第15号)第十七条明确要求,“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定 ...
在 AI 模型不断发展升级的背景下,Claude 4.5 系列带来了 Sonnet、Opus 和 Haiku 三款子模型,每个模型都有其独特的优势和适用场景。尤其是 Opus 4.5,它以其强大的推理能力和响应速度在复杂任务中脱颖而出。 但对于脚本创作者来说,如何在 推理精度 与 响应速度 之间找到 ...
中国智能体应用的行业全貌,核心逻辑是 “基础治理缺失制约落地,技术 + 方法论双轮驱动破局”,以下是分层解读:行业现状:“热市场” 与 “冷落地” 的矛盾突出市场热度高:涌入智能体领域的厂商数量庞大,反映出行业对智能体的商业化潜力预期较高。 落地成效差:大多数企业的智能体应用未能有效落地,暴露出技术 ...