机器学习基础:特征分解,奇异值分解
一、特征分解1、特征向量对于一个方阵(行数和列数相等的矩阵)AAA,特征向量就是指与AAA相乘的一个非零向量 ν\nuν 等于这个非零向量的缩放,即Aν=λνA\nu=\lambda\nuAν=λν其中,λ\lambdaλ称为特征值,ν\nuν称为特征向量。在线性代数中,通常使用变换式:(A−λI)ν=0(A-\lambda I)\nu=0(A−λI)ν=02、特征分解1、定义:将矩阵分解成一组特
一、特征分解
1、特征向量
对于一个方阵(行数和列数相等的矩阵)AAA,特征向量就是指与AAA相乘的一个非零向量 ν\nuν 等于这个非零向量的缩放,即Aν=λνA\nu=\lambda\nuAν=λν其中,λ\lambdaλ称为特征值,ν\nuν称为特征向量。在线性代数中,通常使用变换式:(A−λI)ν=0(A-\lambda I)\nu=0(A−λI)ν=0
2、特征分解
1、定义:将矩阵分解成一组特征向量和特征值。
2、特征分解:
*****假设矩阵 AAA 的特征向量是{ν(1),⋯ ,ν(n)}\{\nu^{(1)},\cdots,\nu^{(n)} \}{ν(1),⋯,ν(n)},对应的特征值为{λ1,⋯ ,λn}\{\lambda_1,\cdots,\lambda_n\}{λ1,⋯,λn}。
*****令矩阵V=[ν(1),⋯ ,ν(n)]V= [\nu^{(1)},\cdots,\nu^{(n)}]V=[ν(1),⋯,ν(n)],其中,每一列为一个特征向量;
*****令向量λ=[λ1,⋯ ,λn]\lambda = [\lambda_1,\cdots,\lambda_n]λ=[λ1,⋯,λn],其中,每一个元素为一个特征值;
特征分解记作:A=Vdiag(λ)V−1A=Vdiag(\lambda)V^{-1}A=Vdiag(λ)V−1 其中,diagdiagdiag表示的是对角矩阵
3、不是每一个矩阵都可以被分解,但是每个实对称矩阵都可以被分解成为特征向量和实特征值:
A=QΛQ−1A=Q\Lambda Q^{-1}A=QΛQ−1 其中,QQQ是AAA的特征向量组成的正交矩阵,Λ\LambdaΛ是对角矩阵。
4、有时候,特征分解也不是唯一的,我们通常按照降序排列Λ\LambdaΛ的元素,在这个约束下,特征分解唯一
3、正定、半正定、负定、半负定
1、正定:所有特征值都是整数的矩阵
2、半正定:所有特征值都是非负数的矩阵
3、负定:所有矩阵都是负数的矩阵
4、半负定:所有矩阵都是非正数的矩阵
5、对于半正定矩阵,有以下规律,这也是它受到重视的原因:
∀x,xTAx≥0\forall x,x^T Ax\geq0∀x,xTAx≥0对于正交矩阵,还有xTAx=0 ⟹ x=0x^TAx=0\implies x= 0xTAx=0⟹x=0
二、奇异值分解
1、对于非方阵的矩阵,它是没有特征分解的,所以这个时候我们只能使用奇异值分解。奇异值分解与特征分解类似,它是将矩阵分为奇异向量和奇异值,对于矩阵AAA,有:A=UDVTA = UDV^TA=UDVT 其中,假设AAA是一个m×nm \times nm×n的矩阵,那么UUU是一个m×mm \times mm×m的矩阵,DDD是一个m×nm \times nm×n的矩阵,VVV是一个n×nn \times nn×n的矩阵。其中,UUU和VVV是正交矩阵,DDD是对角矩阵(不一定是方阵)。
2、对角矩阵DDD的对角线上的元素成为矩阵AAA的奇异值,矩阵UUU的列向量为左奇异向量,矩阵VVV的列向量称为右奇异向量
DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。
更多推荐


所有评论(0)