2026-01-19 闲话 大三上期末
这学期有三门必修课,两门选修课。目前考了如下四门。无论成绩怎么样、是否挂科了。我都去参加了考试,没有怯战。
泛函分析
这门课引入了无穷维向量这样一个概念。
定义了完备的赋范空间为 banach 空间、定义了带内积的 banach 空间为 Hilbert 空间。
介绍了
-
hahn-banach定理
其实我现在还是不知道这个定理的内容,考试题都用的是经典推论。考前 chatgpt 还给我演示了一些其他题目使用这个定理的方式,狂拽酷炫了属于是。
-
一致有界原理
刷往年题的时候遇到的,然后刷第二份...第 n 份往年题时一直在遇到,考试的时候也遇到了,众望所归。
-
开映射/闭图像定理
现在已经不记得定理内容了!我们 catastrophic forgetting 是这样的
几个比较重要的定理,刷了很多往年题、作业题、课后习题,感觉这三个定理的使用真是神出鬼没,再给各种神奇的结论背书。
我当场做出了一个使用 hahn-banach + 开映射闭图像 的题目,非常有成就感。chatgpt 教学的成功之作。
数理方程
主要讲了广义函数、convolution、傅立叶方法、laplace 方程、热传导方程、波动方程这些内容。
解广义函数基础运算题时,必须使用广义函数意义下的运算,推导被卡住就不可能推下去了再。
convolution 定义我还是不会
在 cyh 的指导下掌握了傅立叶变换的定义,给了我偷漏过程提供了最好的工具。傅立叶变换有很多比较精彩的性质、应用。
后面三个方程主要关注:基本解、叠加原理、初边值问题的解。做题的时候需要把原方程改成一个新方程,来实现对初边值的定向改造。
哎这门挂科了。更多内容不写了。
最优化方法
-
什么是凸集、凸函数
-
linear programming
包括朴素 lp、为了找基本可行解而引出的大 M 法和两阶段法。
终于掌握了 linear programming 的计算。太感人了。好像比沈老师晚一个学期,难绷。
-
无约束优化中的一些算法
主要是一类迭代法,迭代的过程主要考虑方向、步长两个东西,一般见到的步长,都是对 f(x_k + direction_k * alpha) 中的 alpha 求一个 argmin。
- 牛顿迭代,带步长的牛顿迭代
- 牛顿迭代中需要计算 hessian,会引入较高的计算复杂性,我们考虑维护一些对 hessian 的 approximation,考虑对 k+1 步 gradient 在第 k 步 gradient 处进行泰勒展开,考虑把 approximation 的 delta 视为一个有 a u u^T + b v v^T 形式的变量,可以把 a,b,u,v 都用已知量表达出来,进而得到 BFGS DFP 两个不同的算法
-
有约束的 non linear 优化问题。例如最经典的 lagrange 乘子法以及其拓展。好像讲了 quadratic programming,但是我没学。
由于考试不考算法收敛性,所以我就没学。其实有学姐告诉我不考证明题,于是我一点证明都没看,包括考试考了的 lagrange 对偶相关的内容。
数值分析
这门课比较有趣。期末考试会考察:
-
进制转换。
暴论:做几个 2 进制转 8 进制这门课就不会挂科闹麻了 -
函数的逼近,主要是用多项式这个在 C[a,b] 上稠密的函数集合,包括最小二乘逼近和一致逼近。
-
解线性方程组的一些知识。包括 LU 分解、Jacobi & Guass-Seidel 迭代。以及一些和谱、特征值相关的方法,我没学。
-
数值积分,主要是高斯积分公式。涉及到了代数精度这个概念。我看到数值积分公式的形状时是非常非常惊讶的,积分表达式的结果可以用几个函数点值来拟合,甚至对于次数 <= 代数精度的都对。对于权重 = 1 的 case,可以快速算权重、节点,我把方法背诵下来了。
-
迭代法解方程,主要考虑收敛阶这样一个概念。能成功迭代,对于迭代的表达式要有一些约束。
-
祖传的一个证明插值是对 any continuous function 的一致逼近的期末考试题,考前把ChatGPT做法背诵了
现代密码学
这门课还有两天进行学习,
其实还学习了大学语文和膝盖两门课程,这两门课的内容就不总结了
之前面试 minghong 的时候被批评了:我也不问你课本里面讲的什么啊。好像达摩克利斯之剑悬在脑袋上。不过我其实掌握的更是课本的微小的子集——在往年题里面出现的部分。

浙公网安备 33010602011771号