摘要: 在求解最优化问题中,拉格朗日乘子法(Lagrange Multiplier)和KKT(Karush Kuhn Tucker)条件是两种最常用的方法。在有等式约束时使用拉格朗日乘子法,在有不等约束时使用KKT条件。 我们这里提到的最优化问题通常是指对于给定的某一函数,求其在指定作用域上的全局最小值(因 阅读全文
posted @ 2023-10-26 16:24 CrescentTing 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 共价键和非共价键的关键区别在于,当两个原子共享它们的电子时,共价键就形成了,而非共价键则是通过两个原子之间完全交换电子或不交换任何电子而形成的。 化学键主要有四种类型:共价键、离子键、氢键和范德华相互作用。当我们把化学键分为共价键和非共价键时,离子键、氢键和范德华相互作用都属于非共价键的范畴。 什么 阅读全文
posted @ 2023-10-09 15:25 CrescentTing 阅读(210) 评论(0) 推荐(0) 编辑
摘要: TCMSP 数据库:http://ibts.hkbu.edu.hk/LSP/tcmsp.php 备注:用于中药复方有效成分的检索和筛选,成分-靶点关系的获取,靶点-疾病关系的获取。如果做复方,主要利用该数据库进行 ADME 参数的筛选和分析。 Pubchem 数据库:https://pubchem. 阅读全文
posted @ 2023-09-25 15:04 CrescentTing 阅读(142) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-07-18 07:30 CrescentTing 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 下面是9种Attention机制,右边LRA表示性能,下面坐标表示速度。 Big Bird 是指小孩子才做选择的一种Attention机制,里面包含了local,global,随机多种attention机制。 Transformer是最原始的self-Attention,速度比较慢,但性能比较好。 阅读全文
posted @ 2022-04-01 11:14 CrescentTing 阅读(204) 评论(0) 推荐(0) 编辑
摘要: 下面是9种Attention以及Attention变种的方法,其中LRA表示性能,横坐标表示运行速度,圈圈大小表示占的内存大小。 Transformer 是传统的Attention机制。 Big Bird 就是小孩子才做选择,啥都综合在一起。综合global attention, local att 阅读全文
posted @ 2022-04-01 07:27 CrescentTing 阅读(116) 评论(0) 推荐(0) 编辑
摘要: Tensor 实际上是一个多维数组(multidimensional array) Tensor的目的是能够创造更高维度的矩阵、向量。 阅读全文
posted @ 2021-06-18 04:45 CrescentTing 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 流形学习是一类借鉴了拓扑流形概念的非线性降维方法。 机器学习中降维方法分为线性降维和非线性降维, 而流形学习一般是用来做非线性降维的: 什么是流行? 代表方法:Laplacian Eigenmaps 拉普拉斯特征映射 谱聚类过程是基于manifold 的 Laplacian Eigenmaps 拉普 阅读全文
posted @ 2021-06-03 18:16 CrescentTing 阅读(147) 评论(0) 推荐(0) 编辑
摘要: 核函数只是用来计算映射到高维空间之后的内积的一种简便方法。 核函数将m维高维空间的内积运算转化为n维低维输入空间的核函数计算,从而巧妙地解决了在高维特征空间中计算的“维数灾难”等问题,从而为在高维特征空间解决复杂的分类或回归问题奠定了理论基础。 李航的《统计学习方法》中对于核函数的定义: 要注意,核 阅读全文
posted @ 2021-06-03 08:59 CrescentTing 阅读(540) 评论(0) 推荐(0) 编辑
摘要: Precision = 预测的结果中预测正确的正例 / 预测的结果中所有为1的值 Recall = 预测的结果中预测正确的正例 / 真实存在的正例数 所以P_R_curve 对负样本的比例不敏感 (1)真阳性(True Positive,TP):检测不健康,且实际不健康;正确肯定的匹配数目; (2) 阅读全文
posted @ 2021-02-11 15:09 CrescentTing 阅读(122) 评论(0) 推荐(0) 编辑