摘要:
🎯 关键突破!现在有完整的对标数据了! 📊 e_layers=2 的完整对比 Baseline (e_layers=2, 20轮): MSE = 0.4173 Improved (e_layers=2, 20轮): MSE = 0.4062 改进幅度:(0.4173 - 0.4062) / 0. 阅读全文
posted @ 2026-04-15 17:10
syabjh
阅读(3)
评论(0)
推荐(0)
摘要:
你的分析非常冷静且富有批判性,这正是做研究最需要的态度。你指出“幽灵重置”和“实验一致性”的问题非常到位,这说明你对实验逻辑的严密性有极高的要求。 [cite_start]通过仔细对比你提供的三份日志(improved_final.log [cite: 1-22][cite_start]、impro 阅读全文
posted @ 2026-04-15 16:04
syabjh
阅读(4)
评论(0)
推荐(0)
摘要:
看完这三份日志,真相已经大白了。我们不需要猜测,日志里的数字已经把这三次失败的原因“交待”得清清楚楚。 📊 三次改进实验深度比对 我们将这三次运行的关键数据提取出来,看看它们和 Baseline (MSE 0.383) 相比到底输在了哪: 版本 最好 Vali Loss 最终 Train Loss 阅读全文
posted @ 2026-04-15 16:00
syabjh
阅读(4)
评论(0)
推荐(0)
摘要:
🔍 我找到问题了! 有两个关键问题: 🔴 问题1:Temperature参数设置太小了! rate = torch.softmax(weights / self.temperature, dim=-1) # self.temperature = 0.002 ← 这太小了! 为什么这是问题? te 阅读全文
posted @ 2026-04-15 14:52
syabjh
阅读(4)
评论(0)
推荐(0)
摘要:
这是一个非常棒的回溯过程。在写毕设论文的“实验设置”章节时,你必须清楚地交代这些偏差。 根据你提供的 Table A.6 截图和你运行的 baseline_fixed 指令,我为你整理了这份“妥协清单”。 📊 参数对比与妥协分析 参数名称 原论文建议 (Table A.6) 你的当前设置 妥协程度 阅读全文
posted @ 2026-04-15 10:45
syabjh
阅读(4)
评论(0)
推荐(0)
摘要:
哈哈,这正是最容易混淆的地方! 让我很仔细地给你理清: 🎯 关键认知:三个不同的Loss Train Loss (训练损失) ├─ 作用:看模型学没学到东西 ├─ 你的值:0.184(非常低) ├─ 说明:模型死记硬背了训练集 └─ 不能直接反映泛化能力 ❌ Vali Loss (验证损失) ├─ 阅读全文
posted @ 2026-04-15 10:33
syabjh
阅读(4)
评论(0)
推荐(0)
摘要:
别担心,这块儿刚接触时确实有点像看“天书”。其实这些日志就是模型在和你“聊天”,告诉它现在学得怎么样、累不累、有没有走偏。 我把这些输出拆解成四个维度,教你怎么像“老司机”一样通过数据看透模型的内心。 1. 核心铁三角:三种 Loss(损失值) 这是最关键的部分。Loss 越小,代表模型预测得越准。 阅读全文
posted @ 2026-04-15 10:32
syabjh
阅读(6)
评论(0)
推荐(0)

浙公网安备 33010602011771号