摘要:
各种优化器SGD,AdaGrad,Adam,LBFGS都做了什么? 优化的目标是希望找到一组模型参数,使模型在所有训练数据上的平均损失最小。对于参数的迭代更新$\theta \leftarrow \theta -\eta g$,主要是从两个方面,一个是梯度修正$g$,一个是学习率$\eta$调整。基 阅读全文
posted @ 2021-04-18 23:38
MissHsu
阅读(2403)
评论(0)
推荐(1)
摘要:
HNSW 解决的问题:做高效率相似性查找。推荐系统中,如何找到与用户query最相近的几个item,然后推荐出去。 解决方法有:Annoy,KD-Tree, LSH, PQ,NSW, HNSW等。 近似最近邻搜索算法(Approximate Nearest Neighbor Search,ANNS) 阅读全文
posted @ 2021-04-18 23:28
MissHsu
阅读(4421)
评论(2)
推荐(0)

浙公网安备 33010602011771号