导航

上一页 1 2 3 4 5 6 7 8 9 ··· 97 下一页

2025年2月10日

摘要: DeepSeek-R1的训练流程包含四个阶段,分为两个强化学习(RL)阶段和两个监督微调(SFT)阶段。 https://github.com/deepseek-ai/DeepSeek-R1 第一阶段:Cold Start(冷启动,SFT阶段) 要解决的问题 初始不稳定性和可读性差:直接从基模型启动 阅读全文

posted @ 2025-02-10 08:45 蝈蝈俊 阅读(3084) 评论(0) 推荐(0)

2025年2月8日

摘要: docker 的安装 https://www.docker.com/ 下载并安装最新版本docker ubuntu 镜像 在 https://hub.docker.com/_/ubuntu 选择合适的镜像,我这里选择 ubuntu:22.04 docker pull ubuntu:22.04 查看本 阅读全文

posted @ 2025-02-08 10:15 蝈蝈俊 阅读(154) 评论(0) 推荐(0)

2025年2月5日

摘要: 自从用上 DeepSeek_R1 这样的“聪明”AI,是不是感觉效率飞升,但这同时也带来了一个“甜蜜的烦恼”: 以前那种“指哪打哪”的简单指令,有时候好像不太灵了! 就像面对更聪明的员工,你不能再像指挥小学生一样,得换个沟通方式,才能更好地合作,让他们发挥出真正的实力。 难道AI“翅膀硬了”,开始“ 阅读全文

posted @ 2025-02-05 16:41 蝈蝈俊 阅读(316) 评论(0) 推荐(0)

摘要: DeepSeek 发布的推理模型 DeepSeek-R1不仅在多项推理基准测试中比肩 OpenAI 顶级模型 o1-1217,更令人惊叹的是,它的背后,是 纯粹的强化学习 (RL) 路线! DeepSeek 研究员 Daya Guo 的 “新年寄语”:见证大规模 RL 的魔力 DeepSeek 的核 阅读全文

posted @ 2025-02-05 13:51 蝈蝈俊 阅读(5474) 评论(0) 推荐(2)

2025年2月1日

摘要: 阿姆斯特朗登月那句“我的一小步,是人类的一大步”是非常有历史意义和象征性的,我让DeepSeek-R1参照写,也非常出彩: 从航天员视角出发的 1、踏上月面第一步时 (抬脚特写) "这一步,踏碎了四千年的仰望" (数字锚定从嫦娥传说到当代的时间跨度) 2、拾取月岩样本时 (手套与岩石接触特写) "十 阅读全文

posted @ 2025-02-01 15:56 蝈蝈俊 阅读(130) 评论(0) 推荐(0)

摘要: 小时候说聪明的,长大后却变得平庸了?其实我们评价聪明的体系在随年龄而转变: 当10岁的小明快速背出圆周率后30位,大人夸他"真聪明"; 30岁的张经理因设计出智能仓储系统获得晋升,同事说他"有真本事"; 65岁的王师傅仅凭发动机异响就判断出故障原因,徒弟们尊称他"老师傅"。 这三个"聪明"的评价背后 阅读全文

posted @ 2025-02-01 15:05 蝈蝈俊 阅读(144) 评论(0) 推荐(0)

2025年1月26日

摘要: 2016年AlphaGo战胜李世石时,人类惊叹于AI的“思考”能力。但此后,AI发展似乎陷入了一个怪圈:模型越来越庞大,训练成本动辄数亿美元,仿佛 “堆算力”成了唯一的进化密码。直到今年,DeepSeek推出的V3及R1模型,用很少的算力达到行业顶尖水平,甚至让模型自己学会了“反思”。这背后究竟藏着 阅读全文

posted @ 2025-01-26 16:44 蝈蝈俊 阅读(487) 评论(0) 推荐(0)

2025年1月20日

摘要: Meta AI 近期发表的一篇论文 "Memory Layers at Scale" 为我们提供了一个新的思路:为模型配备可学习的“记忆”模块,使其能够像人脑一样,选择性地存储和检索信息,从而在不显著增加计算成本的前提下,大幅提升模型的性能,尤其是在处理事实性知识方面。 https://ai.met 阅读全文

posted @ 2025-01-20 17:07 蝈蝈俊 阅读(279) 评论(0) 推荐(0)

摘要: 人工智能的飞速发展,在为我们描绘美好未来的同时,也引发了深刻的忧虑:AI是否会有一天凌驾于人类之上?我们辛勤的工作会不会被冰冷的机器取代? 面对这些疑问,1月15日,李飞飞接受海外播客 Possible 的访谈中给出了她的答案,并再次敲响警钟:“AI Agent的根本定位应该是工具而非主导者,是赋能 阅读全文

posted @ 2025-01-20 13:53 蝈蝈俊 阅读(210) 评论(0) 推荐(0)

2025年1月17日

摘要: DeepSeek-V3 采用的 DeepSeekMoE 架构,通过细粒度专家、共享专家和 Top-K 路由策略,实现了模型容量的高效扩展。 每个 MoE 层包含 1 个共享专家和 256 个路由专家,每个 Token 选择 8 个路由专家,最多路由至 4 个节点。这种稀疏激活的机制,使得 DeepS 阅读全文

posted @ 2025-01-17 13:57 蝈蝈俊 阅读(10123) 评论(0) 推荐(1)

上一页 1 2 3 4 5 6 7 8 9 ··· 97 下一页