摘要: 随便写写记记 罗素茶壶:一个主张的不可证伪性,并不能成为相信它的理由。 爱是一场博弈,必须保持永远与对方不分伯仲、势均力敌,才能长此以往地相依相息。因为过强的对手让人疲惫,太弱的对手令人厌倦。 《简爱》 python函数参数确定 import inspect # 假设你已经完成了model的实例化( 阅读全文
posted @ 2025-10-28 23:26 wljss 阅读(17) 评论(0) 推荐(0)
摘要: 开坑中,欢迎投稿 海盗分金问题 问题 有五个海盗,在海上抢来了一百个金子。五个海盗都很贪婪,他们都希望自己能分得最多的金子,但同时又都很明智。于是他们按照抽签的方法,排出一个次序。首先由抽到一号签的海盗说出一套分金的方案,如果5个人中有50%以上(不含50%)的人同意,那么便依照这个方案执行,否则的 阅读全文
posted @ 2025-02-25 20:56 wljss 阅读(143) 评论(2) 推荐(2)
摘要: 正在学习,开坑中,想到哪写到哪吧 SSH 端口转发 要在本地访问服务器上运行的 Gradio 界面,可以通过 SSH 端口转发(隧道),将服务器的 Gradio 端口映射到本地。 ssh -L 7861:127.0.0.1:7860 ubuntu@172.23.148.87 -p 50850 然后浏 阅读全文
posted @ 2025-02-13 18:21 wljss 阅读(35) 评论(0) 推荐(0)
摘要: 本人太懒,但是遇到有意思的题又不想放过,所以下面只写思路没有代码。 持续更新中 最大最小 就是问你有多少个区间满足区间最大值是区间最小值的两倍。 乍一看不太可做,实际上是个二分。 枚举左端点,右端点变大的过程中,区间最大值不会变小,区间最小值不会变大,\(\frac{区间最大值}{区间最小值}\)不 阅读全文
posted @ 2021-12-15 15:56 wljss 阅读(153) 评论(1) 推荐(0)
摘要: 2020.6.16 原本以为HEOI取消了,昨天晚上难受了一晚上。QAQ 上午俩某郸一中的人在洛谷上怼了起来,还好我大hsez的人不会这样干。 貌似取消这个事情更加确信了。 但是!在下午3点左右,我们收到了通知 关于HEOI,它SXOI了。 可能这就是复活吧 晚上接到通知,关于HEOI,它HAOI了 阅读全文
posted @ 2020-06-17 11:46 wljss 阅读(613) 评论(2) 推荐(3)
摘要: 以下为扯淡内容 Waring!:CSP前的题解略微有些不忍直视 血的教训:样例解释不可信 Q:为什么我叫 \(wljss\) ? A:在做某道神奇的字符串题目时rand()出了 \(wljss\),根据拼音你可以叫我 王老吉叔叔/物理竞赛生 以上为扯淡内容 没错,我是 \(wljss\) ,一个很菜 阅读全文
posted @ 2019-10-06 18:25 wljss 阅读(1119) 评论(0) 推荐(3)
摘要: 改编自豆包 前置知识点1:矩阵的秩 矩阵的秩rank,就是这个矩阵里「不重复、不冗余的有效信息的数量」。 比如一个矩阵里所有行都是第一行的倍数,那所有信息都能从第一行推出来,它的秩就是1;如果有2行完全独立、没法互相推导,剩下的行都能从这2行推出来,秩就是2。 公式定义: 对任意矩阵 \(A \in 阅读全文
posted @ 2026-03-17 17:24 wljss 阅读(1) 评论(0) 推荐(0)
摘要: 改编自豆包 先从自编码器(AE) 说起,再讲VAE是怎么把它升级成能生成新内容的「变分自编码器」。 先搞懂基础——自编码器(AE)是什么? 大白话:AE就是一个「压缩-还原」的AI机器,分两个核心部分: 编码器:把输入的样本(比如一张人脸照片x),压缩成一个很短的特征码z(也叫隐变量,相当于这张脸的 阅读全文
posted @ 2026-03-14 16:37 wljss 阅读(13) 评论(0) 推荐(0)
摘要: KL 散度(全称 Kullback-Leibler Divergence,也叫相对熵),本质就是衡量两个概率分布的 “不一样程度”,更准确地说:用一个近似分布去描述真实分布时,会损失 / 多浪费多少信息。 两个基础的概念: 概率分布:就是一件事所有可能结果的出现概率。比如抛正常硬币,正面 50%、反 阅读全文
posted @ 2026-03-14 13:41 wljss 阅读(28) 评论(0) 推荐(0)
摘要: 维基百科:熵的概念最早起源于物理学,用于度量一个热力学系统的无序程度。在信息论里面,熵是对不确定性的测量。但是在信息世界,熵越高,则能传输越多的信息,熵越低,则意味着传输的信息越少。 简单来说,信息熵 = 一件事的「不确定程度」。 越猜不准、越没谱、结果越乱,熵就越高;板上钉钉、完全没悬念的事,熵就 阅读全文
posted @ 2026-03-13 16:55 wljss 阅读(10) 评论(0) 推荐(0)
摘要: 先验是在观察数据或证据之前基于已有知识形成的判断或信念。 后验是在观察数据或证据之后,综合了新旧信息更新而成的判断或信念。 贝叶斯公式: \[P(D|T) = \frac{ P(T|D) × P(D) }{P(T)} \]例子:疾病检测 先验:某疾病在总人口中的患病率是1%(基于历史数据)。 证据: 阅读全文
posted @ 2026-02-06 20:40 wljss 阅读(33) 评论(0) 推荐(0)
摘要: 策略梯度方法的核心思想 在强化学习中,策略梯度(Policy Gradient, PG)方法直接对策略本身进行参数化并优化,而不是先学价值函数再间接导出策略。 策略: \[\pi_\theta(a \mid s) \]用参数 \(\theta\)(通常是神经网络)表示在状态 \(s\) 下选择动作 阅读全文
posted @ 2026-02-06 20:16 wljss 阅读(27) 评论(0) 推荐(0)
摘要: 用来匹配字符串用的。 字符串前面加上r表示原生字符串,用来禁用反斜杠\的转义功能。 未完待续 阅读全文
posted @ 2025-09-01 19:51 wljss 阅读(11) 评论(0) 推荐(0)
摘要: 代码如下 #include <iostream> #include <fstream> #include <string> #include <chrono> #include <thread> int main() { // 定义文件路径,需要注意文件夹/home/wljss/my_log需要存在 阅读全文
posted @ 2025-02-21 11:01 wljss 阅读(48) 评论(0) 推荐(0)