摘要: 当模型的参数量不再是唯一的“神话”,我们听见了算力巨轮之下,数据冰山崩裂的巨响。 过去几年,AI领域仿佛被一条名为“Scaling Law”的法则所统治。人们坚信,只要模型足够大、数据足够多、算力足够强,AI的性能就能一路攀升,无所不能。OpenAI的GPT系列、谷歌的PaLM等模型的成功,似乎完美 阅读全文
posted @ 2025-09-11 15:04 曼孚科技 阅读(36) 评论(0) 推荐(0)