变分法基础(三)

前两节我们介绍了泛函和一些积分的引理。到了这一节,我们终于正式谈一谈变分了。读者们可以通过联想我们的微分定义来看一节。 令$J[y]$是赋范线性空间上的一个泛函,定义$\Delta J[h] = J[y + h] - J[y]$。注意上式和y,h都有关系,因此是双变量泛函。当$y$是固定的时候,$\Delta J[h]$就是$h$的泛函。假设$$\Delta J[h] = \phi[h] + \epsilon\|h\|$$,其中$\phi[h]$是一个线性泛函,而当$\|h\|\rightarrow 0\|$时$\epsilon \rightarrow 0$。这个时候我们称$J[y]$是可微的。增量$\Delta J[h]$的主要线性部分就是$\phi[h]$,也被称为$J[y]$的变分,记作$\delta J[y]$。首先我们要证明符号$\delta J[y]$唯一性($\phi$唯一),和泛函意义上的极值定理(泛函取极值的必要条件)。 定理1: 可微泛函的变分是惟一的。 该定理可以通过假设有两个不同的变分,然后证明他们的差是低于一阶的无穷小量,进而矛盾。 定理2: 若可微函数$J[y]$在$y=\hat{y}$处取极值,那么其变分在$y=\hat{y}$处发散: $$\delta J[h]=0$$对于所有可取的$h$成立。 该定理可以通过假设有一个$h$满足 $\delta J[h]\not=0$,那么对于$-h$来说$\delta J[-h]$的符号相反,这说明在 $y=\hat{y}$ 附近有比 $J[y]$大的值,也有比 $J[y]$小的值。总而言之, $J[y]$不是极值点,矛盾。 我们来看看变分法最基础也是最重要的定理:欧拉方程。 令$y(x)$是$[a, b]$上的连续可微泛函,满足$y(a)=A, y(b)=B$。函数$F(x,y,y')$是二阶可导的函数,我们希望找到函数 $$J[y] = \int_{a}^{b} F(x, y, y') \mathrm{d} x$$ 关于$y$的极值点。 请注意,这里我们说的极值点对应的搜索空间是$y \in \mathcal{C}^1(a, b)$,而不是一般的$\mathcal{C} (a, b)$。此时,该极值点也被称为弱极值点。 \begin{ali

变分法基础(二)

变分法基础(二)

泛函的变分法本质上是为了求得函数的极值点,与传统的函数极值点类似:在函数极值点附件的一阶偏导都为0;那么类推到泛函的极值点问题上,泛函在极值点附近的变分为0。从这个角度看,变分法是对传统微分的一种推广,从一般线性空间到函数空间。一般来说,我们使用变分法都是为了求得某个以函数为变量的泛函的极值(有点儿绕,我们看看形式化的表达)。

定义1:给定赋范线性空间$\mathcal{D}$,$h\in\mathcal{D}$,令$\phi[h]$是$\mathcal{D}$上的一个泛函。那么当下列条件满足时,$\phi[h]$被称为连续线性泛函:

  1. $\phi[\alpha h]=\alpha \phi[h], \alpha \in \mathcal{R}$
  2. $\phi[h_1+h_2]=\phi[h_1]+\phi[h_2]$
  3. $\phi[h]$是连续的
当$\mathcal{D}$是向量空间时,上述定义不难理解;在变分法里,$\mathcal{D}$一般都取做函数空间,那么$h$是一个函数,而$\phi[h]$就是以函数为变量的泛函,这正是我们要求极值的目标函数,下面举个例子。

例1:$\mathcal{D} = \mathcal{C}(a,b)$(所有在a,b上连续的函数),令$$\phi[h] = \int_a^b h(x)\mathrm{d}x$$

当我们想要求$\phi[h]$的极值时(当然,该例子中不存在极值),我们就需要变分法了。再引入变分法前,我们先介绍一些积分的性质以便之后使用。

引理1:如果$\alpha(x)$在$[a, b]$上连续,且对于所有的$h \in \mathcal{C}(a,b), h(a)=h(b)$,$$\int_a^b \alpha(x) h(x) \mathrm{d} x = 0$$都成立,那么$\alpha = 0$。

这个证明不难,反证法假设$\alpha$有非零点,那么根据$\alpha$连续的性质总能构造出一个$h$使得$\alpha(x) h(x) \mathrm{d} x$在零点附近的积分不为0;除此之外的部分设$h(x)=0$即可,那么总体的积分不为0,与假设矛盾。

引理2:如果$\alpha(x)$在$[a, b]$上是连续的,且$$\int_a^b \alpha(x)h'(x) \mathrm{d} x = 0$$对于所有的$h \in \mathcal{C}^1(a,b), h(a)=h(b)=0$都成立,那么$\alpha(x)\equiv c$。

这个证明需要一点技巧,构造$$h(x)=\int_{a}^x  \alpha(t) - c \mathrm{d} t$$,其中$c = \int_a^b \alpha(x) \mathrm{d} x$,之后通过$$\int_a^b \alpha(x)h'(x) \mathrm{d} x = 0$$可以得到$0 = \int_a^b (\alpha(x)-c)^2 \mathrm{d} x$。那么$a \equiv c$。

还有如下两个定理,证明也都是类似的,就略过了~
引理3:如果$\alpha(x)$在$[a,b]$上是连续的,那么若$$\int_a^b \alpha(x)h''(x)\mathrm{d}x = 0$$对于所有的$h \in \mathcal{C}^2(a,b), h(a) = h(b) = 0, h'(a) = h'(b) = 0$都成立,那么$\alpha(x) = c_0 + c_1x$。

引理4:如果$\alpha(x)$和$\beta(x)$在$[a,b]$上是连续的,如果$$\int_a^b \alpha(x) h(x) + \beta(x) h'(x) \mathrm{d} x = 0$$对于所有的$h \in \mathcal{C}^1(a, b), h(a) = h(b) = 0$都成立,那么$\beta$是可微的,且$\beta'(x) = \alpha(x)$。

好了,基本的微积分引理就需要用到上面这些,下一节我们可以正式谈一谈变分了。

评论

此博客中的热门博文

变分法基础(一)