引言
这篇文章,我们将介绍Selberg最简单的上界筛模型,其利用二次型求极值的方法,从而对筛函数求出了一个上界.而Selberg更深刻的应用则可以见筛法读书笔记(哥德巴赫猜想 by 潘承洞) – 加权筛法顶峰之陈景润定理.实际上这篇文章就是对Selberg筛法模型的一个补全,否则前后内容之间会有所缺失.
而利用二次型的想法,在其他的地方也有很广泛的应用,其在惜字如金的Serre书中甚至占了特别大的篇幅,而在GPY的论文中也有应用!后者可以见论文阅读之重点提炼篇 – Primes in tuples I (Goldston, Pintz, Yildirim),而前者我完成筛法部分的内容后也可以慢慢开启!
而正如我上篇文章结尾所说,本篇文章只是一个补充,不会也不能很长,那么现在就正式开启Selberg筛法的旅程!
二次型的构造
Selberg筛法的理论基础来源于下面一个可以直接验证的不等式:
S(A;P,z)≤a∈A∑d∣a, d∣P(z)∑λd2,(2.1)
其中λ1=1,λd(d≥2)∈R.而这个不等式右侧是一个无限变量的二次型,而这也是我们这种筛法较之组合筛法更易于计算的关键.
记v=1,2,D=[d1,d2],以及由筛法读书笔记(Sieve Methods by Halberstam) – 筛函数与一些经典筛法例子中的
∣Ad∣=dω(d)X+Rd,
于是我们可以得到有
S(A;P,z)≤dv∣P(z)∑λd1λd2a∈Aa≡0 mod D∑1=dv∣P(z)∑λd1λd2∣Ad∣=Xdv∣P(z)∑λd1λd2Dω(D)+dv∣P(z)∑∣λd1λd2RD∣,(2.2)
于是定义
Σ1:=dv∣P(z)∑λd1λd2Dω(D),Σ2:=dv∣P(z)∑∣λd1λd2RD∣.
故现在的目的便是,在(2.1)中选取一系列合适的λd,让Σ1尽可能小,这样我们便得到了在这种情况下最优的一个上界.
主项的估计
然后在此处,截断的想法又能帮我们大忙.当我们选取
λd=0, if d≥z,(3.1)
我们可以发现的是,(2.1)右侧的式子变成了有限变量的二次型,且此时Σ2中项数也并没有很多,换言之,余项应该是很容易被bound住的.下面我们先对主项进行估计.
注:上面的(3.1)在我们的实际计算中也十分重要,下面时刻要记得,我们的很多变量都是要小于z的.
在条件Ω1下,我们定义
Gk(x):=d<x(d,k)=1∑μ2(d)g(d),(3.2)
特别地,G1(z)就是我们在筛法读书笔记(Sieve Methods by Halberstam) – 筛函数与一些经典筛法例子中定义的G(z).
然后根据我们前面的知识知道的是,对于任意自然数d,我们都有g(d)>0,以及ω,g是一个积性函数.于是我们有
ω(d)d=p∣d∏(1+g(p)1)=l∣d∑g(l)1,(3.3)
记d=(d1,d2),于是得到有
Dω(D)=d1d2ω(d1)ω(d2)⋅ω((d1,d2))(d1,d2)=d1ω(d1)d2ω(d2)l∣dv∑g(l)1.(3.4)
根据(3.1),也就是表明d1,d2<z时(3.4)式才有意义,否则在(3.3)的左侧分母就是0了.注意到这点后(下面公式中莫名其妙出现的d<z就是这个原因),那么就可以发现
Σ1=d1∣P(z)d1<z∑d2∣P(z)d2<z∑λd1λd2d1ω(d1)d2ω(d2)l∣dv∑g(l)1=l<zl∣P(z)∑g(l)1l∣d∣P(z)d<z∑λddω(d)2,=l<zl∣P(z)∑g(l)1yl2,(3.5)
其中
yl:=l∣d∣P(z)d<z∑λddω(d).(3.6)
于是我们将Σ1又重新表示为一个有限变量的二次型,并且我们需要求其最小值.
我们根据Mobius反演公式,可以从(3.6)处得到
λddω(d)=d∣l∣P(z)l<z∑μ(dl)yl,(3.7)
特别地,当我们取d=1时,我们有
l∣P(z)l<z∑μ(l)yl=1.(3.8)
紧接着,我们将从(3.8)出发,利用Cauchy-Schwarz不等式,来求出(3.5)的最小值,以及此时λd的取值.[4]结合(3.8),(3.2)和(3.5)可以得到
1=l∣P(z)l<z∑μ(l)g(l)g(l)1yl2≤l∣P(z)l<z∑μ2(l)g(l)⋅l∣P(z)l<z∑g(l)1dω(d)yl2=G(z)⋅Σ1,(3.9)
于是得知
(Σ1)min=G(z)1,(3.10)
并且由Cauchy-Schwarz不等式的取等条件知
yl=l∣P(z)l<z∑g(l)−1μ(l)g(l),
再根据(3.7)和(3.2)将上式化简得到
λd=p∣d∏(1−ω(p)/p)μ(d)⋅G(z)Gd(z/d).(3.11)
于是(3.10)式是可以取等的,至此,我们便解决了主项的估计问题.
补:也可以验证得知∣λd∣≤1, ∀d∈N.
余项的估计
最后我们来估计余项,看它是否确实如我们前面所说的,是容易控制的.
根据(3.11)以及其下面的补充,我们首先得到有
Σ2≤dv∣P(z)dv<z∑∣RD∣,(4.1)
其中D仍然是[d1,d2].
然后我们有很容易知道的是
{(d1,d2):[d1,d2]=d}=3ν(d),(4.2)
于是我们很容易便得到有
Σ2≤d<z2d∣P(z)∑3ν(d)∣Rd∣≤d<z2(d,P)=1∑μ2(d)3ν(d)∣Rd∣.(4.3)
于是我们得到
定理1/定理3.2:
在Ω1的条件下,我们有
S(A;P,z)≤G(z)X+Σ2,(4.4)
其中
Σ2≤d<z2(d,P)=1∑μ2(d)3ν(d)∣Rd∣,
或者也可以表示为
Σ2≤d<z2d∣P(z)∑∣R[d1,d2]∣≤d<z2d∣P(z)∑3ν(d)∣Rd∣.
最后的最后,我们假设Rd满足条件R,因此
d<z2d∣P(z)∑3ν(d)∣Rd∣≤d<z2d∣P(z)∑3ν(d)ω(d)≤z2d∣P(z)∑d3ν(d)ω(d)=z2p<zp∈P∏(1+p3ω(p))≤z2p<z∏(1+pω(p))3≤W3(z)z2.(4.5)
因此在这种情况下,我们有
定理2/定理3.1:
在Ω1,R的条件下,我们有
S(A;P,z)≤G(z)X+W3(z)z2.(4.6)
总结
其实要总结的内容已经在引言中讲完了,毕竟也是一手回马枪,回来补充的Selberg的这种最简单的筛法,而这种方法比起Brun筛法而言,简直友好至极,计算也很简单直接(已经被折磨到脱敏了).
而接下来其实马上就要接着更新内容,毕竟还需要总结一下张益唐论文中最关键的要点,以及稍微多记录一点Maynard论文中的工作,这么一看要干的事其实还不少😭.
参考资料
[1] Halberstam, Richert. Sieve Methods[M]. Dover Publications, 2011. 37-96.
[2] T. Tao. 254A, Notes 4: Some sieve theory[Z]. https://terrytao.wordpress.com/2015/01/21/254a-notes-4-some-sieve-theory/.
[3] Goldston D A, Pintz J, Yildirim C Y. Primes in tuples I[J]. Annals of Mathematics, 2009: 819-862.
[4] 潘承洞, 潘承彪. 哥德巴赫猜想, 第二版[M]. 科学出版社, 2011. P197-P220.