摘要:
模型: \[dp_{i,j}=\max(dp_{i-1,j}+R(i-1,j),dp_{i,j-1}+U(i,j-1)) \]目标明确:\((0,0)\to (n,m)\)。 两个方向的贡献函数可以转化到一个方向,例如 \(U\to R\)。 将贡献函数转化为若干个区间修改的形式(唉没错就是差分)( 阅读全文
posted @ 2026-01-27 21:19
spdarkle
阅读(11)
评论(0)
推荐(0)
摘要:
首先将区间加修改为后缀操作。 以前缀最大值为例。也就是执行区间修改操作之后维护前缀最值。 若后缀加正数,无影响。 若后缀加负数,那么被覆盖的是一段区间,可以线段树二分找到。 如果需要进行多次后缀修改操作之后再统一做前缀最大值。 可以转化为先做所有加正数的操作,然后把加负数的操作按照左端点从后往前做。 阅读全文
posted @ 2026-01-27 21:10
spdarkle
阅读(8)
评论(0)
推荐(0)
摘要:
我们知道,对于具有凸性的DP存在一种技巧叫 Slope Trick,一般指利用堆维护斜率拐点,但凸壳不止这一种表达方法,还有一些。 先来看看我们需要的操作: 加法:\(g(x)=f(x)+h(x)\),\(h_1(x)=C,h_2(x)=kx+b,h_3(x)=|x-a|\) 平移,然后取极值——这 阅读全文
posted @ 2026-01-27 20:55
spdarkle
阅读(29)
评论(0)
推荐(0)
摘要:
P11328 贪心策略的发现的通用方法:假定最优解集合,再微调研究 很明显我们应该使用邻项交换法,假设选定了按照什么顺序参加比赛,并且参加的每一场都获得了徽章,那么考虑先操作 \(i\) 再操作 \(j\) 合法,而先操作 \(j\) 非法的条件是: \[now\le L_i,now+X_i\le 阅读全文
posted @ 2026-01-27 15:13
spdarkle
阅读(11)
评论(0)
推荐(0)

浙公网安备 33010602011771号