当λ是k重特征值,λ的线性无关的特征向量的个数与秩r(λE-A)的关系(我大一,刚学完二次型)别复制啊,我都baidu过了,都看不懂
来源:学生作业帮助网 编辑:作业帮 时间:2024/11/15 00:52:50
当λ是k重特征值,λ的线性无关的特征向量的个数与秩r(λE-A)的关系(我大一,刚学完二次型)别复制啊,我都baidu过了,都看不懂
当λ是k重特征值,λ的线性无关的特征向量的个数与秩r(λE-A)的关系(我大一,刚学完二次型)
别复制啊,我都baidu过了,都看不懂
当λ是k重特征值,λ的线性无关的特征向量的个数与秩r(λE-A)的关系(我大一,刚学完二次型)别复制啊,我都baidu过了,都看不懂
其实,这个问题与λ是k重特征值没有什么关系.当然了,λ必须是特征值才行.
若λ是A的特征值,则存在x不等于0,使得Ax=λx.也就是说(λE-A)x=0存在非零解.事实上,上述方程的非零解就是λ的特征向量.进一步,上述方程的基础解系就是λ对应的一组线性无关的特征向量.因此基础解系个数=n-r(λE-A)=λ的线性无关的特征向量的个数
不好意思,我线性代数学的最烂了。不会
如果r(λE-A)=a,表示齐次方程组(λE-A)X=0有n-a个线性无关的解(A为n阶方阵)。
即这个λ有n-a个线性无关的特征向量。
也就是说:λ的线性无关的特征向量的个数=n-r(λE-A)
当λ是矩阵A的k重特征值时候,则λ对应的线性无关的特征向量的个数为Ax=xλ的解空间的维数,我们知道对于齐次方程:(A-λI)x=0的解空间的维数等于n-Rank(A-λI),其中n等于向量x的维数,这就是说,如果Rank(A-λI)=k,则A具有n个线性无关的特征向量,可以对角化,反之则不可以,至于λ与其对应的特征向量的个数,没有关系。...
全部展开
当λ是矩阵A的k重特征值时候,则λ对应的线性无关的特征向量的个数为Ax=xλ的解空间的维数,我们知道对于齐次方程:(A-λI)x=0的解空间的维数等于n-Rank(A-λI),其中n等于向量x的维数,这就是说,如果Rank(A-λI)=k,则A具有n个线性无关的特征向量,可以对角化,反之则不可以,至于λ与其对应的特征向量的个数,没有关系。
收起