主元剖析提供了一种用低维数据来标明高维杂乱数据最主要特征的途径。PCA的思想是将nn维特征映射到kk维空间上k<nk<n,这kkapple维特征是全新的正交特征,是新结构出来的kk维特征,而不是简略地从nn维特征中去除其他n−kn-k维特征。在原始PCA的基础上,依据数据的特征,研讨人员提出各种版其他PCA,可是中心思想相同。例如,针对非线性数据的核PCA,针对序列数据的CCIPCA,针对二维图片数据的2DPCappointmentA、2D2DPCA以及BDPCA等。下面首要详细介矩阵等价绍PCA的思想,然后简略介绍其他版其他PCA算法。

1. PCA原理

(本部分参看从零开始完结主成分剖析(PCA)算法 )
PCA能够被界说为数据在低维线性空间上的正交投影,这个线性空间被称为主子空间(principa机器人工程l subspace),算法的时刻杂乱度是指什么使得投影数据的方差被最大化(Hote线性回归方程的a和b怎样求lling, 1933),即最大方差理论。等价地,它也能够被界说为使得均匀投影价值最小的线性投影,即最appreciate小差错理论。均匀投影价值是指数据点和它们的投影之间的均匀平方间隔(算法剖析的目的是Pearso线性回归方程计算器n, 1901)。

1.1 最大方差理论

在信号处理中,以为信号具有较大的方差,噪声有较小的方差,信噪矩阵相乘怎样算比便是信号与噪声的方差比,越大越好。因些咱们以为,最好的kk维特征是将nn维样本点改换为kk后,每一维上的样本方差都尽或许的大。

首要,考虑在一维空间(k=1)(k=1)上的投影。咱们能够运用nn维向量uu界说这个空间的方向。为了便当并不失一般性,咱们假定挑选一个单位向量,然后uTu=1u^Tapplication u=1
主成分剖析|PCA算法大全

(假线性回归方程的a和b怎样求定数据是零均值化后的)
如上图所示,赤色点标明原样本机器人x(i)x^{(i)}uu矩阵计算器是蓝色直线的斜率也是直线的方向向量,并且是单位向量,直线上蓝色点标明原样本点x(i)x^{(i)}uu上的投影。简略知道投影点离原点的间隔appstore线性回归计算三要素x(i)Tux^{(i)T} u,因为这些原始样本点的每一维特征均值都为0,因而投影到uu上的样本点的均值依然是0。

假定原始数据集为XmnX_{mtimes n},咱们的政策是找到最佳的投影空间矩阵天王Wnk=(w1,w2,…,wk)W_{ntime矩阵游戏s k}=(w_1, w_2, …,appreciate w_k),其间wiw_i是单位向量且wiw_i是单位向量且wiw_iwj(i≠j)w_j(ineq j)正交,何为最佳的WW?便是原始样本点投影到WW上之后,使得投影后的样本点方差最appointment大。

因为投影后均值 为0,因些投影后矩阵的迹的总方差为:1m∑i=1m(x(i)Tw)2=1m∑i=1mwTx(i)x(i)Tw=∑i=1mwT(1mx(i)x(i)T)wfrac{1线性回归剖析spss}{m}sum_{i=1}^m (x^{(i)appstoreT}w)^2=frac{1}{m}sum_appstore{i=1APP}^m w^Tx^{(i)} x^{(i)T}w=sum_{i=1}^m w^T(frac{1}{m}x^线性回归{(i)}x^{(i)T})w

其间1mx(appearancei)x(i)Tfrac{1}{m}x^{(i)}x^{(i)T}便是原始数据集XX的协方矩阵的迹差矩阵(因为x(i)x^{(i)}的均值为0,因为无偏估量的原因,一般协方差矩阵除以m−1m-1,这是用m)。

=1m∑i=1m(x(i)Tw)2,=1mx(i)x(i)Tlambda=frac{1}{m}sum_{i=1}^mapple (x^{(i)T}w)^2,Sigma=fra机器人c{1}{m}x^{(i)}x^{(i)T},则有=wTwlambda=w^TSigma w

上式两头一同左乘ww,留神到wwT=1ww^T=1(单位向量),则有w=wlambda w=Sigma w
所以ww是矩阵Sigma的特征值所矩阵天王对应的特征向量。

欲使投影后的总方差最大,即lambda最大,因而最佳的投影向量ww是特征值lambda最大时对应的特征向量,因些,当咱们将ww设置为与具有最大的特征值向量持平常,方差会抵达最大值。这个特征向量被称为第一主成分。

咱们能够用一种增量的办法界说额定的主成分,办法为:在悉数与那些现已考虑过的方向正交的悉数或许的方向中,将新的方向算法的五个特性挑选为最大化投影方差的方向。假定咱们考虑kk维投影空间的一般景象,那么最大化投影数据方差的最优线性投影由数据协方差矩阵Sigmakk个特征向量w1,…,wkw_1, …, w_k界说,对应于kk个最矩阵的逆线性回归模型的特征值 1,…,klambda_1,…,lambda_k。能够经过归纳法很简略地证明出来。

因而,咱们只需求对协方差矩阵进行特征值分化,得到的前kk大特征值对应的特征向量便是最佳的kk维新特征,并且这k机器人编程是学的什么k维新特征是正交的。得到前kkuu往后,原始数据集XX经过改换机器人电影能够得到新的样本。
主成分剖析|PCA算法大全

1.2机器人电影 最小平方差错理论

主成分剖析|PCA算法大全
如上图所示,假定有这样的二维样本点(赤色点),依照前文咱们解说的最大方差理论,咱们的政策是机器人工程是求一条直线,使得样本点投影到直线或许平面上的点的方差最大。本质是求直线或许平面,那么衡量直线求的好不好,不仅仅线性回归方程只要方差最大化的办法。再回想咱们最开始学习的线性回归等,意图也是求一个线性函数使得直线能够最佳拟合样本点,那么咱们能不能以为最佳的直线便是回归后的直线呢?回算法的有穷性是指归时咱们的最小二乘法衡量的是样本点到直线的坐标轴间隔。比方这个问题中,特征是xx,类标签是yy。回归时最小二乘法衡量的是间隔dd。假定运用回归办法来衡量最佳直线,那么便是直接在原始样本上做回归机器人简笔画了,跟特征挑选就没什么关算法导论系了。

因而,咱们方案选用其他一种点评直线好坏的办法,运用点到直线的间隔d′d′来衡量。

现在有mm个样本点x(1),…,x(m)x^{(1)},…,x^{(mappreciate)},每个样本点为nn维。将样本点x(i)x^{(i)}在直线上的投影记为x(1)′′x^{(1)”},那么咱们便是要最小算法的有穷性是指∑i=1m(x(i)′−x机器人(i))2sum_{i=1}^m (x^{(i)’}-x^appetite{(i)})^2

这个公式称作最小平方差错(Least Squared Error)。

首要,咱们承认直线经过的点,假定要矩阵的秩在空间中找一点x0x_0来代表这mm个样本点,“代表”这个词不是量化的,因而要量化的话,咱们便是要找一个nn维的点x0x_0,使得J0(x0)=∑i=1m(x(i)′−x(i))2J_0(x_0)=sum矩阵的逆_{i=1}^m (x^{(i)’}-x^{(i)})^2最小。其间J0(x0)J_0(x_0)是平方差错点评函数。假定x‾overline{x}mm个样本点的均值,即x‾=1m∑i=1mx(i)overl矩阵游戏ine{x}=frac{1}{m}sum_{i=1}^m x^{(i)}
J0(x0)=∑i=1m(算法的五个特性x0−x(i线性回归计算三要素))2=∑i=1m((x0−x‾)−(x(i)−x‾))2=∑i=1m(x0−x‾)2−2∑i=1m(x0−x‾)T(x(i)−x‾)+∑i=1m(x(i)矩阵乘法−x‾)2=线性回归∑i=1m(x0−x‾)APP2−2(x0−x‾)T∑i=1m(x(i)−x‾)+∑i=1m(x(i)−x‾)2=−∑i=1m(x0−x‾)2矩阵游戏+∑i=1m(x(i)−x‾)2J_0(x_0)=sum_{i=1}矩阵游戏^m(x_0-x^{(i)})^2=sum_{i=1}^m((x_0-overline{x}appetite)-(x^{(i)}-overline{x}))^2=sum_{i=1}^m(x_0-overline{x})^2-2sum_{i=1}^m(x_0-overline{x})^T(x^{(i)}-overline{x})+sum_{i=1}^m(x^{app是什么意思(i)}-overline{x})^2=sum_{i=1}^m(x_0-overline{x})^2-2(x_0-overline{x}approach)^Tapplicationsum_{i=1}^m(x^{(i)}-overline{x})+sum_{i=1}^m(x^{(i)}-overline{x})^2=-sum_{i=1}^m(x_0-overline{x})^2+sum_{i=1}^m(x^{(i)}-overline{x})^2

显着,线性回归方程例题详解上式的第二项与x0x_0无关,因而,J0(x0)J_0(x_0)x‾overline{x}处有最小值。

appointment下来,咱们承认直线的方向向量。咱们现已知道直线经过点x‾overl线性回归ine{x},假定直线的方向是单位向量e→overrightarrow{e}。那么线性回归直线上任意一点x(i)′x^{(i)’}有:x(i)′=x‾+aie→x^{(i)’}=overline{x}+a_i overrightar线性回归剖析spssrow{e},算法的时刻杂乱度是指什么其间,aia_ix(i)′x_{(i)’}到点x‾overline{x}的间隔。

咱们从头界说最小平方差错:
主成分剖析|PCA算法大全主成分剖析|PCA算法大全主成分剖析|PCA算法大全

这时候点都集合在新的坐标轴周围,因为咱们运用的最小平方差错的意义就在此。其他,PRML书上从线性质空间的视点进行了详细的论说,有喜好的读者能够看看。

利益:

它是无监督学习,完全无参数束缚的。在PCA的核算过程中算法规划与剖析完全不需线性回归方程计算器求人为的设定参数或是依据任何经历模型对核算进行干涉,最终的作用只与数据相关,与用户是独立的。

用PCA技术能够对数据进行降维,一同对新求出的“主元”向量的重要性进行排序,依据appearance需求取前面最重要的部分,将后面的维数省去,能够抵达降维然后简化模型或是对数据进行紧缩的作用。一同最大程度的坚持了原有数据的信息。

各主成分之间正交,可消除原始数据成分间的彼此影响。

核算办法简略,易于在核算机上完结。

缺陷:

假定用户对观测政策有必定的先验知识,掌握了数据机器人瓦力的一些特征,却无法经过参数化等办法对处矩阵天王理过程进行干涉,或矩阵计算器许会得不到预期的作用,功率也不高。

贡献率小的主成分往往或许含有对矩阵的秩样本差线性回归方程异的重要信息。

特征值矩阵的正交向量空间是否仅有有待讨论。

在非高斯散布的情况下,PCA办法线性回归方程公式得出的主元或许并不是最优的,此刻在寻找主元时不能将方差作为衡量重要性的规范。

1.3 高维数据下的特征值分化

在现实生活中,因为样本的高维特征(图画识别每一个像素点都是矩阵的迹一个维度),将会导致协方差矩阵Sigma非常大,核算机难以存储与核算,那线性回归剖析怎样针对高维数据做特征值分化呢?咱们知道=XXT线性回归模型Sigma=XX^T,考虑代替矩阵P=XTXP=X^T X,假定有100个样本,10000个维度,那么Sigma便是一个算法的时刻杂乱度是指什么10000维的方阵,而PP仅仅一个1机器人工程00维的方阵。咱们做如下推导:Pv=线性回归剖析vXTXv=vXXTXv=Xv(Xv)=(Xv)Pv=lambda vX^TXv=la算法导论mbda vXX^TXv=Xl机器人工程ambda vSigma(Xv)=lambda(Xv)
机器人简笔画样经过求PP的特征值和特征向量,其特征值即Sigma的特征值,其特征向量右乘随机向量XX即为Sigma的特征向量,然后完结高算法的五个特性维数据的特征值分化(只能得到部分前几的主成分)。

求证:ATAA^TAAATAA^T的特征值持平?
弥补:一般情况下,ABABBABA的特征值只差00特征值 的个数。

若存在可逆矩阵PP使得,P−矩阵乘法1AP=BP^{-1}AP=B,则矩阵AA与矩阵BB相似。若两矩阵相似,则它们的秩持平,行列式持平,迹(悉数特征值的和,或主对角线元素的总和)矩阵的迹持平,两者具有相机器人大战同的特征值(或许会多出一些为零的特征值)。
主成分剖析|PCA算法大全

主成分剖析|PCA算法大全

2. CCIPCA增量主元剖析算法[1]

candid covariance-free机器人英语 increm矩阵的迹ental principle component analysis直接协方差无关的增量式主成分剖析。application

假定输入向量序列为u′(t),t=1,2,…u'(t),t=1,2,…;线性回归方程的a和b怎样求nn幅图画输线性回归模型入时均值为m(n)=1n∑t=1nu′(t)m(n)=frac{1}{n}sum_线性回归方程例题详解{t=1}^n u'(t),它的协方差矩阵为A(n)=frac{1}{n}sum_{t=1}^n[u'(t)-m(n)][u'(t)-m(n算法剖析的目的是)]^T=frac{1}{n}sum_{i=1}^n u(t)u(t)^T tag{1}这儿u(t)=u′(t)线性回归方程的a和b怎样求−m(n)u(t)=u'(t)-m(n)

u(n)u(n)的第ii个特征值和特征值和特征向量的核算公式为ixi(n)=A(n)xi(n)lambda_ix_i(n)=A(n)x_i(矩阵游戏n),其间xi(n)x_i(n)为第nn输入时待求的第ii个特征向量,ilambda_i为对应的特征值 。CCIPCA算法为了加快迭代的算法规划与剖析速度,整个迭代矩阵乘法是对特征值和特征向量的乘积ixilambda_ix_i进行的,设第nn个输入时有v_i(n)=lam线性回归剖析spssbda_ix_i(n)=A(n)x_i(n) tag{2}
把(1)式代入(2)式,可得v_i(n)=f算法工程师rac{1}{n}sum_{t=1}机器人^appetiten u(t)u(t)^T x_i(n)ta算法工程师g{3}
若经过迭代取得特征值和特征向量的乘积viv_i,因特征向量是归一的,只需对(2)式求模(内积,开根),app是什么意思可求得i=∣∣vi∣∣,applexi=vi∣∣vi∣∣lambda_i=||v_i||,x_i=frac{v_i}{||v_i||}。迭代选用(3)式,把vi(n−1)∣∣vi(n−1)∣∣frac{v_i(n-1)}{||v_i(n-1)||}近似为xi(n)x_i(n)代入(3)式,经改换可得CCIPCA的底子迭代公式,v_i(n)=frac{n-1}{n}v_i(n-1)+frac{1}{n}u(n)u(n)矩阵相似^Tfappearrac{v_i(n-1)}{||v_i(n-1)||} tag{4}

其间n−1nfrac{n-1}{n}为上一步的迭代值 vi(n−1)v_i(n-1)的权值,第2项的1nfrac{1}{n}相当于迭代的调整步长。u(n)u(n)作为第nn幅新输入数据对迭代向量vi(n)v_i(n)的调整,在机器人简笔画迭代中vi(n)v_i(n)逐步机器人矩阵乘法敛到所求的第ii个特征向量。对不同序号的特征向量,都能够用(4)式迭代,仅仅输入的向量u(n)u(n)不同。求最大线性回归方程公式详解的特征值对应的特征向量时,u(n)u(nappstore)为机器人眼睛直接采到的第nn个数据。在求第2,第3乃至更高维特征向量时,须作以下处理,现现已过迭代得到第1个特征向量,先设u1(n)=u(n)u_1(n)=u(n),并把u1(n)u_1(n)投影到上一个现已求到的特算法的五个特性征向量上(现为第1个特征向量),矩阵相似求出残差图画u2(n)u_2(n),如下式标明,u2(n矩阵的逆)=u1(n)−u1approachT(n)v1(n)∣∣v1(n)∣∣v1(线性回归n)∣∣v1(n)∣∣u_2(n)=u_1(n)-u_1^T(n)frac{v_1(n)}{||v_1(n)||}frac{v_1(n)}{||v_1(n)||}
u2(n)u_2(n)作为求线性回归方程第2个特算法导论征向量的输入,相似的可求出第3,第4,….个特征向量。因残差图画和上1个特征向量所康复的图画正交,然后可求出悉数彼此正交的特征向量。其他,每输入1幅新的数据时,均值也要更新,对(1)式,输入第nn机器人大战图画时的均值 选用如下迭代式,m(n)=n−1nm(n−1)+1nu′(n)m(n)=frac{n-1}{n}算法导论m(n-1)+frac{1}{n}u'(n)
主成分剖析|PCA算法大全

3.机器人英语 KPCA

一篇关于KPCA的超级全的博客

  • 原始PCA

XXTwi=iwiXX^T w_i=lambda_i w_i

  • 运用函数Phi线性回归方程将数据XX映射到高维空间(X)Phi(X)

(X)矩阵天王(X)Twi=iwiPh线性回归方程公式i(X)Phi(X)^T wappstore_i=lambda_i w_i

  • wi=算法剖析的目的是∑k=1Ni(xi)=(X)w_i = suapplicationm_{k=1}^N alpha_iPhi(x_i) = Phi(X)alapproachpha

(X)(X算法)T(X)=i(X)Phi(X)Phi(X)^T Phi(X) alpha=lambda_i Phi(X)alpha

  • 两头左乘(X)TPhi(X)^T

(X)T(X)(X)T(X)=i(X)T(X)Phi(X)^TPhi(X)Phi(X)^T Phi(X) alpha=lambda_i Phi(X)^T Phi(X)alpha

  • 由核函数的性质可得K=(X)T(X)K=Phi(X)^T Phi(X)

KK=iK⇒Kapproach=iKK alpha=la算法规划与剖析mbda_算法工程师i Kalpha Rightarrow Kalpha=lambda_i alpha

此处留神,特征向量wiw_i应该进一机器人步由(X)Phiappearance(X)alphappreciatea核算得出。可是,(X)Phi(X)是无法核算的,然后也就没办法求得特征向量。

此处,机器人英语咱们剖析是否能够线性回归剖析spss直接运用alpha来对数据进行降维呢,答案是必定的。

假定新来一个数据xx,需求运用以上作用来得到降维的appearance数据x^ha矩阵游戏t{x}

x^=wiTx=((x))T(x)=T(X)T(x)=[1,…,N][k(x1,x),…,k(xN,x)]That{x}=w_i^T x=(Phi(x)alpha)^T Phi(x)=alp算法的时刻杂乱度是指什么ha^T Phi(X)^TPhi(x矩阵相似)=[alpha_1,…,alpha_N][k(x_1,x),…, k(x_N, x)]^T

主成分剖析|PCA算法大全

PCA与KPCA的差异

  • PCA 依然不失为一种好剖析办法,数据呈非线性流形散布,线性回归或许说是各政策呈非线性联系时,关于线性剖析剖析办法来说或许作用不是特别好,但一同应留神的是它也是一种计算剖析办法,实践经济政策中都存在线性相机器人关性(信息冗余),这是契合计算规则的,完全不相关的经济数据是极其稀有,线性回归方程公式也便是说要求的数据只矩阵天王需大致呈线性散布,并且有PCA核算简略,无需先验知识,无需参线性回归剖析spss数设置等利益。
  • PCA与线性核KPCA不完全相同,关于有P个政策的N个数据样本。PC机器人大战A核算协方差阵为PXP维矩阵,它能够提取的主成分数为P,算法的有穷性是指而KPCA是从核矩阵启航核算的,最大能够提取的主成分为N,为满意在特征空间中的样本均值为零,还要对核矩阵K进行特别处理,这也是导致与线性核与原样本内积的不一致的原因。
  • KPCA核函数与核参数难于挑选。PCA的协方差app是什么意思矩阵的特征向量对应于各政策的主成分比重,然后能用原政策云解说主成分,而KPCA的是依据核矩阵的特征向量,与原政策没有对应联系,然后核主成分化释困机器人难,其次KPCA将政策投影到高维特征空间后,而其实践的数据又是在线性回归方程计算器原空间处理的,其数值在原空间中是否均有排序意义也值得进一步研讨。

4. 2DPCA[2机器人编程是学的什么]

Ai,i=机器人股票1,机器人编程是学的什么2,…,NA_i, i=1,2,…,NNN个样本图画,Ai∈RmnA_iin R^{mtimes n}。首要核算协方差矩阵,也便是整体散布矩阵GtG_t Gt=1N∑i=1N(Ai−A^)T(Ai−A^)G_t=frac{1}{N}sum_{i=1}^N(A_i-hat{A})^T(A_i-hat{A})其间A^=1N∑i=1NAihat{A}=frac{1}{N}sum_{算法工程师i=1}^N A_i为整体样本的均值。

核算GtG_t的特apple征值和特征向量,取特征值累积项献率=0.90.99alpha=0.9~0.99所对应的特征向量组成投影矩阵游戏矩阵U=[u1,u2,…,uk]∈RnkU=[u_1, u_2, …, u_算法工程师k]in R^{ntimes k} 。则,Fi=AiU∈RmkF_i=A_iUin R^{mtimes k}便是AjA_j的特征。可知原本二维的图画大小mnmtimes n,现在降维为mkmtimes kkk矩阵游戏是依据alpha来承认的。也便是说,施行特征提取后,仅仅紧矩阵等价缩了图画矩阵列向量的位数,行向量位数不变。

5. 2D2DPCA

同于2DPC机器人大战A只在列方向降了维数,降维的作用不抱负。为了更好的降维,D.Q.Zhang和Z.H.Zhou提出了双向的二维主成分剖析办法(2D2DPCA),也便是熟行和列两个方向都进行2DPCA处理。

对悉数练习样本运用上述2DPCA处理之后得到新的练习apple样本Fi,i=矩阵游戏1,2,…,NF_i, i=1,2,…,N,其间Yi∈RmkYAPP_iin R^{mtimes k}。在新样本上结构协方差矩阵Gt∗G_t^* Gt∗=1N∑i=1N(Fi−机器人编程是学的什么F^)(Fi−F^)TG_t^*=frac{1}{N}sum_{i=1}^N (F_i-h机器人简笔画at{F})(F_i-hat{F})^T

同理,求G线性回归方程公式详解t∗Gappstore_t^*的特征向值与特征向量,取特征值累计项献率为alpha的特征向量,得到行方向的投影矩阵V=[v1,v2,..矩阵相乘怎样算.,vd]∈RmdV=[v_1,v_2,…,v_d] in R^{mtimes d}FiF_i的投影为VTFi∈RdkV^TF_iin算法是什么 R^{dtimes k}

至此,两个投影方向的最优投影矩阵UU线性回归剖析VV都求得了,关于图画Ai∈RmnA_iin R^{mtimes n}毕竟降维矩阵为Yi=VTAiU∈RdkY矩阵天王_i=V^TA_iUin R^{dtimes k},其重构图画为Aiapprox=VYiUTA_i^{approx}=VY机器人电影_iU^T

6. BDPCA

BDPCA分别对行和列方向进行数据降维。
将图画样本矩阵Xiappstore′X_{i}^{prime}分化成pp1算法的特征q1times q的行向量,则行方向整体散度算法的时刻杂乱度取决于矩阵为:

Sr=1np∑i=线性回归模型1n[Xi′线性回归剖析spss−X‾(n)]T[Xi′−X‾(n)]S算法的有穷性是指_{r}=frac{1}{n p} sum_{i=1}^{n}left[X_{i}^机器人总动员{prime机器人瓦力}-overline{X}(n)right]^{mathrm{T}}left[X_{i}^{prime}-overline{X}(n)right]

其间,X‾(n)overl线性回归方程的a和b怎样求ine{X}(n)为图画样本矩阵的均值。取前krk_r个最大特征值所对应的特征向量组成行方向投影矩阵为

Wr=[wr1,wr2,⋯ ,wrkr]boldsymbol{W}_{r}=left[w_{r 1}, w_{r 2}, cdots, w_{appreciater k_{r}线性回归方程公式}right]

同理,列方向整体散度矩阵及前kck_c个最大特征值所对应的特征向量组成列方向投影矩阵分别为

Sc=1nq∑i=1n[Xi′−X‾(APPn)][Xi′−X‾(n)矩阵乘法]TS_{c}=frac{1}{n q} sum_{i=1}^{n}left[X_{i}^{prime}-overline{X}算法是什么(n)right]left[X_{i}^{prime}-overline{X}(n)right]^{mathrm{T}}
Wc=[wc1,wc2,⋯ ,wckc]boldsymbol{W}机器人_{c}=left[w_矩阵的迹{c 1}, w_{c 2}, cdots, w_{c k_{c}机器人电影}right]

图画样本矩阵Xi′X_{i}^{primapp是什么意思e}所对应的特征矩阵为

Y=WcTXi′WcY=W_{c}^{mathrm{T}} X_{i}^{prime} W_{c}

BDPCA的特征矩阵维数仅为kckrk_ctimes k_r,因而其算法的有穷性是指运算量要远算法小于CCIPCA。但BDPCA是2维的批处理核算。

参看文献

[1]Juya线性回归剖析spssng Weng, Yilu Zhang, and Wey-Shiuan Hwang, “C算法的有穷性是指andid covariance-free incremental principal component analysis,” I算法的有穷性是指EEE Transactions on Pattern Analysis an算法规划与剖析d M矩阵等价achine Intelligence, voapplicationl. 25算法的时刻杂乱度是指什么, no线性回归方程. 8,线性回归方程例题详解 pp. 1034–1040, Aug. 2003.
[2] Jian Y, David Z, Fr机器人工程专业angi A F, et al. Two-dimensional PCA: a new approach to ap线性回归方程计算器pearance-based face representation and recognition.[J]. IEEE Transactions on Pattern Anaappearlysis & Machine Intelligence, 2004, 26(1):131-137.