An€lise de Componentes Principais
1
An€lise de Componentes Principais A An€lise de Componentes Principais ou principal component
(PCA) „ um procedimento matem€tico que utiliza uma transforma•‚o ortogonal para converter um conjunto de observa•…es de vari€veis possivelmente correlacionadas a um conjunto de valores de vari€veis linearmente descorrelacionadas chamadas componentes principais. O n†mero de componentes principais „ menor ou igual ao n†mero de vari€veis originais. Esta transforma•‚o „ definida de forma que o primeiro componente principal tem a maior variƒncia poss‡vel (ou seja, „ respons€vel pelo m€ximo de variabilidade nos dados), e cada componente seguinte, por sua vez, tem a m€xima variƒncia sob a restri•‚o de ser ortogonal a (i.e., n‚o-correlacionado com) os componentes anteriores. Os componentes principais s‚o garantidamente independentes apenas se os dados forem normalmente distribu‡dos (conjuntamente). O PCA „ sens‡vel ˆ escala relativa das vari€veis originais. Dependendo da €rea de aplica•‚o, o PCA „ tamb„m transformada Karhunen €Lo•ve conhecido pela (KLT) discreta,transformada de Hotelling ou decomposi‚ƒo ortogonal pr„pria (POD). analysis
PCA de uma distribui•‚o Gaussiana multivariada centrada em (1,3) com um desvio padr‚o de 3 aproximadamente aproximadamente na dire•‚o (0.878, 0.478) e desvio padr‚o 1 na dire•‚o ortogonal. Os vetores na figura s‚o os autovetores da matriz de covariƒncia multiplicados pela raiz quadrada do autovalor correspondente, e transladados de forma a iniciarem na m„dia.
O PCA foi inventado em 1901 por Karl Pearson. [1] Agora, „ mais comumente usado como uma ferramenta de an€lise explorat‰ria de dados e para fazer modelos preditivos. PCA pode ser feito por decomposi•‚o em autovalores de uma matriz de covariƒncia (ou de correla•‚o) ou por decomposi•‚o em valores singulares de uma matriz de dados, geralmente depois de centralizar (e normalizar ou usar pontua•…es-Z) a matriz de dados para cada atributo. [2] Os resultados de PCA s‚o geralmente discutidos em termos pontua•…es de componentes, tamb„m chamados de pontua•…es de fatores (os valores de vari€vel transformados correspondem a um ponto de dado particular), e carregamentos (loadings), i.e., o peso pelo qual cada vari€vel normalizada original deve ser multiplicada para se obter a pontua•‚o de componente. [3] O PCA „ a mais simples das verdadeiras an€lises multivariadas por autovetores. Com frequŠncia, sua opera•‚o pode ser tomada como sendo reveladora da estrutura interna dos dados, de uma forma que melhor explica a variƒncia nos dados. Se visualizarmos um conjunto de dados multivariados em um espa•o de alta dimens‚o, com 1 eixo por vari€vel, o PCA pode ser usado para fornecer uma visualiza•‚o em dimens…es mais baixas dos mesmos dados, uma verdadeira "sombra" do objeto original quando visto de seu ponto mais informativo. Isto „ feito usando-se apenas os primeiros componentes principais, de forma que a dimensionalidade dos dados transformados „ reduzida. O PCA „ fortemente ligado ˆ an€lise de fatores; de fato, alguns pacotes estat‡sticos propositadamente confluem as t„cnicas. A verdadeira an€lise de fatores faz assun•…es diferentes sobre a estrutura subjacente dos dados e encontra os autovetores de uma matriz levemente diferente.
An€lise de Componentes Principais
2
Detalhes O PCA „ matematicamente definido [4] como uma transforma•‚o linear ortogonal que transforma os dados para um novo sistema de coordenadas de forma que a maior variƒncia por qualquer proje•‚o dos dados fica ao longo da primeira coordenada (o chamado primeiro componente), a segunda maior variƒncia fica ao longo da segunda coordenada, e assim por diante. Seja a matriz de dados, XT, com m„dia emp‡rica nula (i.e., a m„dia emp‡rica (amostral) da distribui•‚o foi subtra‡da dos dados), onde cada uma das n linhas representa uma repeti•‚o diferente do experimento, e ca da uma das m colunas d€ um tipo particular de dado (e.g., os resultados de uma determinada sonda). (Note-se que XT „ definida aqui e n‚o X propriamente dito, e o que estamos chamando de XT „ por vezes denotado por X.) A decomposi•‚o em valores singulares de X „ X = W…VT, onde a matriz m ‹ m W „ a matriz de autovetores da matriz de covariƒncia T XX , a matriz … „ m ‹ n e „ uma matriz diagonal retangular com n†meros reais n‚o-negativos na diagonal, e a matriz T n ‹ n V „ a matriz de autovetores de X X. Assim, a transforma•‚o PCA que preserva a dimensionalidade (i.e., que d€ o mesmo n†mero de componentes principais do que o n†mero de vari€veis originais) „ dada por:
V n‚o „ definida unicamente no caso usual de m < n
1, mas Y vai, com frequŠncia, ser definida unicamente. Como T W (por defini•‚o da SVD de uma matriz real) „ uma matriz ortogonal, e cada linha de Y „ simplesmente uma rota•‚o da linha correspondente de XT. A primeira coluna de YT „ feita das "pontua•…es" dos casos relativamente ao componente "principal", a pr‰xima coluna tem a pontua•‚o relativamente ao segundo componente "principal", e assim por diante. €
Se desejarmos uma representa•‚o de dimensionalidade reduzida, pode-se projetar X ao espa•o reduzido definido apenas pelos primeiros L vetores singulares, WL: onde com a matriz identidade retangular . A matriz W de vetores singulares de X 'e equivalentemente a matriz W de autovetores da matriz de covariƒncias C = T XX , Dado um conjunto de pontos no espa•o euclidiano, o primeiro componente principal corresponde a uma linha que passa atrav„s da m„dia multidimensional e minimiza a soma dos quadrados das distƒncias dos pontos ˆ linha. O segundo componente principal corresponde ao mesmo conceito, depois de subtrair-se toda a correla•‚o com o primeiro componente principal dos pontos. Os valores singulares (em …) s‚o as ra‡zes quadradas dos autovalores da matriz XXT. Cada autovalor „ proporcional ˆ por•‚o de "variƒncia" (mais precisamente da soma dos quadrados das distƒncias dos pontos ˆ m„dia multidimensional dos mesmos) que „ correlacionada com cada autovetor. A soma de todos os autovalores „ igual ˆ soma dos quadrados dos pontos ˆ m„dia multidimensional dos mesmos. O PCA essencialmente rotaciona o conjunto de p ontos em torno da m„dia de forma a alinh€-los com os componentes principais. Isto move o m€ximo poss‡vel de variƒncia (usando uma transforma•‚o ortogonal) a algumas das primeiras dimens…es. Os valores nas dimens…es restantes, portanto, tendem a serem pequenos e podem ser descartados com o m‡nimo de perda de informa•‚o. O PCA „ comumente utilizado dessa maneira para redu•‚o de dimensionalidade. O PCA tem a distin•‚o de ser a melhor transforma•‚o ortogonal para manter o subespa•o que tem a maior "variƒncia" (como definida ha pouco). No entanto, essa vantagem tem o pre•o de exigir mais recursos computacionais se comparado com, por exemplo, a transformada discreta de cossenos (quando esta tamb„m for aplic€vel). T„cnicas de dimens‚o de reducionalidade n‚o-linear tendem a ser ainda mais dispendiosas (computacionalmente) do que o PCA. O PCA „ sens‡vel ˆ escala das vari€veis. Se tivermos apenas duas vari€veis de variƒncias amostrais iguais e positivamente correlacionadas, ent‚o o PCA ir€ consistir de uma rota•‚o de 45Œ, e os "carregamentos" (ou loadings)
An€lise de Componentes Principais
3
para as duas vari€veis relativos ao componente principal ser‚o iguais. Mas se multiplicarmos todos os valores da primeira vari€vel por 100, ent‚o o componente principal ser€ quase igual a essa vari€vel, com uma pequena contribui•‚o da outra vari€vel, ao passo que o segundo componente ser€ qua se que alinhado com a segunda vari€vel original. Isso significa que, sempre que as diferentes vari€veis tŠm unidades diferentes (como massa e temperatura), o PCA „ de certa forma um m„todo arbitr€rio de an€lise de dados. Por exemplo, resultados diferentes seriam obtidos se Farenheit fosse usado em vez de Celsius. Note-se que o artigo original de Pearson foi intitulado "On Lines and Planes of Closest Fit to Systems of Points in Space" "in space" (no espa•o) implica o espa•o f‡sico euclidiano, no qual tais ressalvas n‚o ocorrem. Uma maneira de tornar o PCA menos arbitr€rio „ usar as vari€veis renormalizadas para variƒncia unit€ria. •
Discussƒo Subtra•‚o de m„dia, ou "centraliza•‚o na m„dia", „ necess€ria no PCA para garantir que os primeiros componentes principais descrevam a dire•‚o de m€xima variƒncia. Se a subtra•‚o da m„dia n‚o for feita, os primeiros componentes principais podem corresponder mais ou menos ˆ m„dia dos dados. Uma m„dia de zero „ necess€ria para encontrar a base que minimiza o erro quadrado m„dio da aproxima•‚o dos dados. [5] Assumindo-se uma m„dia emp‡rica nula, ou seja, a m„dia emp‡rica da distribui•‚o foi subtra‡da do conjunto de dados, o componente principal w1 de um conjunto de dados X pode ser definido como:
(Ver arg max para a nota•‚o.) Com os primeiros k 1 componentes, o k -„simo componente pode ser encontrado subtra‡ndo-se os primeiros componentes principais de X: €
e substituindo-se isso como o novo conjunto de dados cujo componente principal „ obtido em
O PCA „ equivalente a fun•…es ortogonais emp‡ricas (EOF), um nome que „ usado em meteorologia. Uma rede neural autoencoder com uma camada linear escondida „ similar ao PCA. Ž convergŠncia, os vetores de peso dos K neurnios na camada escondida formar‚o uma base para o espa•o formado pelos primeiros K componentes principais. Diferente do PCA, essa t„cnica n‚o necessariamente produz vetores ortogonais. O PCA „ uma t„cnica fundamental em reconhecimento de padr…es. No entanto, n‚o „ otimizado para separabilidade de classes.[6] Uma alternativa „ a LDA, que leva esse aspecto em considera•‚o.
Propriedades e limita‚†es do PCA Como visto acima, os resultados do PCA dependem da escala das vari€veis. A aplicabilidade do PCA „ limitada por certas premissas [7] feitas em sua deriva•‚o.
Calculando o PCA atrav‡s do m‡todo da covariˆncia O c€lculo do PCA usando o m„todo da covariƒncia „ descrito nesta se•‚o. [8] Note-se, por„m, que „ melhor usar a decomposi•‚o em valores singulares (com software padr‚o de €lgebra linear). O objetivo „ transformar um dado conjunto de dados X de dimens‚o M num conjunto alternativo Y de dimens‚o menor L. Equivalentemente, deseja-se a matriz Y, onde Y „ a Karhunen Love transform (KLT) da matriz X: •
An€lise de Componentes Principais
4
Organizar o conjunto de dados Suponha-se um conjunto de dados sobre um conjunto de observa•…es de M vari€veis, onde o objetivo „ reduzir os dados de forma que cada observa•‚o possa ser descrita com apenas L vari€veis, L < M . Suponha-se, ainda, que os dados podem ser dispostos como um conjunto de N vetores de dados com cada representando uma †nica observa•‚o agrupada das M vari€veis. ‘ Escreva como vetores coluna, cada um tendo M linhas. ‘ Disponha os vetores coluna em uma †nica matriz X de dimens…es M ‹ N .
C€lcular a m‡dia emp‰rica ‘ Encontre a m„dia emp‡rica ao longo de cada dimens‚o m = 1, , M . ‘ Disponha esses valores de m„dia em um vetor de m„dia emp‡rica u de dimens…es M ‹ 1. ‚
Calcule os desvios da m‡dia A subtra•‚o de m„dia „ uma parte fundamental no c€lculo de uma base de componentes principais que minimize o erro m„dio da aproxima•‚o dos dados. [9] Logo, centralizam-se os dados da seguinte forma: ‘ Subtraia o vetor de m„dia emp‡rica u de cada coluna da matriz de dados X. ‘ Armazene os dados centralizados na matriz M ‹ N B. onde h „ um vetor-linha 1 ‹ N de todos 1s:
Encontre a matriz de Covariˆncia ‘ Encontre a matriz de covariƒncia em‡rica M ‹ M C do produto externo da matriz B consigo mesma:
onde „ o operador de valor esperado, „ o operador de produto externo, e „ o operador conjugado transposto. Note-se que se B consiste inteiramente de n†meros reais, o que ocorre em diversas aplica•…es, a "conjugada transposta" „ a mesma que a transposta usual. ‘ Note-se que a informa€•o nesta se€•o ‚ um tanto imprecisa, jƒ que produtos externos se aplicam a vetores. Para casos de tensors, produtos tensoriais deveriam ser usados, mas a matriz de covari„ncia no PCA ‚ uma soma de produtos externos entre os vetores de amostras; de fato, o mesmo poderia ser representado como B.B*.
An€lise de Componentes Principais
Encontra-se os autovetores e autovalores da matriz de covariˆncia ‘ Calcula-se a matriz V de autovetores que diagonaliza a matriz de covariƒncia C: onde D „ a matriz diagonal de autovalores de C. Esse passo tipicamente envolve o uso de um m„todo num„rico para o c€lculo de autovetores e autovalores. Tais algoritmos s‚o amplamente dispon‡veis como pacotes da maioria dos sistemas de €lgebra matricial, como o Scilab, o R (linguagem de programa•‚o), Mathematica,[10] SciPy, GNU Octave, bem como VXL e OpenCV. ‘ A matriz D toma a forma de uma matriz diagonal M ‹ M , onde „ o m-„simo autovalor da matriz de covariƒncia C, e ‘ A matriz V, tamb„m M ‹ M , cont„m M vetores coluna, cada um de tamanho M , que representa os M autovetores da matriz de covariƒncia C. ‘ Os autovalores e autovetores s‚o ordenados e casados. Cada m-„simo autovalor corresponde ao m-„simo autovetor. ‘ Reordenam-se as colunas da matriz de autovetor V e da matriz de autovalor D na ordem decrescente de autovalores.
Calcula-se a energia acumulativa para cada autovetor ‘ Os autovalores representam, de certa forma, a distribui•‚o da energia nos dados ao longo de cada um dos autovetores, onde aqui os autovetores formam uma base para os dados. A energia acumulativa g para o m-„simo autovetor „ a soma do conte†do de energia ao longo de todos os autovalores de 1 a m:
Seleciona-se um subconjunto de autovetores como vetores base ‘ Armazenam-se as primeiras L colunas de V como a matriz M ‹ L W: onde ‘ Utiliza-se o vetor g como um guia na escolha de um valor adequado para L. O objetivo „ escolher o menor valor poss‡vel para L que ao mesmo tempo garanta um valor suficientemente alto de g em termos percentuais. Por exemplo, pode-se escolher L de forma que a energia acumulativa g „ acima de um certo limiar, e.g. 90%. Nesse caso, escolhe-se o menor valor de L tal que
5
An€lise de Componentes Principais
6
Converte-se os dados originais para pontua‚†es-Z ‘ Criar um vetor desvio padr‚o M ‹ 1 s da raiz quadrada de cada elemento ao longo da diagonal da matriz de covariƒncia C: ‘ Calcular a matriz M ‹ N de pontua•…es-Z: (dividir elemento-por-elemento) ‘ Note-se que apesar desse passo ser †til em diversas aplica•…es (pois normaliza os dados em rela•‚o ˆ variƒncias), ele n‚o „ uma parte integral do PCA/KLT
Projetar as pontua‚†es-Z dos dados na nova base ‘ Os vetores projetados s‚o as colunas da matriz ‘ W* „ a conjugada transposta da matriz de autovetores. ‘ As colunas da matriz Y representam as transformadas de Karhunen Loeve (KLT) dos vetores de dados nas colunas da matriz X. •
Software/c„digo fonte ‘ No software livre de estat‡stica R, as fun•…es princomp [11] e prcomp [12] podem ser usadas para PCA; prcomp usa a decomposi•‚o em valores singulares que geralmente fornece uma melhor precis‚o num„rica. Existe uma explos‚o recente em implementa•…es de PCA em diversos pacotes do R, geralmente em pacotes de prop‰sito espec‡fico. Veja: [13]. ‘ No Octave, um ambiente livre de programa•‚o compat‡vel com o MATLAB, a fun•‚o princomp [14] d€ o componente principal. ‘ OpenCV ‘ Na Biblioteca NAG, PCA „ implementado via a rotina g03aa (dispon‡vel tanto em Fortran [15] em na libguagem C[16]). ‘ Cornell Spectrum Imager [17] - Uma ferramenta de c‰digo aberto baseada no ImageJ. Permite an€lise r€pida e f€cil de PCA para 3D datacubes. ‘ Weka tamb„m calcula componentes principais (javadoc [18]).
C€lculo eficiente de componentes principais Algoritmos iterativos Em implementa•…es pr€ticas, especialmente para dados de alta dimens‚o ( m grande), o m„todo de covariƒncia n‚o „ muito usado por n‚o ser eficiente. Uma maneira de calcular o primeiro componente principal eficientemente [19] „ dado no pseudo-c‰digo a seguir, para uma matriz de dados XT com m„dia zero, sem precisar calcular sua matriz de covariƒncia. Note-se que, aqui, uma matriz de dados com m„dia nula significa que as colunas de XT devem ter, cada uma, m„dia zero. um vetor aleat€rio fa•a
vezes:
c
(um vetor de tamanho para cada linha
)
m
An€lise de Componentes Principais
retorne
Esse algoritmo „ simplesmente uma maneira eficiente de calcular XXTp, normalizando, e colocando-se o resultado de volta em p (en:Power iteration). Ele evita as nm’ opera•…es de c€lculo da matriz de covariƒncia. p ficar€ tipicamente pr‰ximo ˆ primeira componente principal de XT dentro de poucas itera•…es, c. (A magnitude de t ser€ maior depois de cada itera•‚o. A convergŠncia ser€ detectada quando aumenta muito pouco relativo ˆ precis‚o da m€quina.) Componentes principais subsequentes podem ser calculados subtraindo-se o componente p de XT (ver Gram Schmidt) e ent‚o repetindo-se tal algoritmo para encontrar a pr‰xima componente principal. No entanto, esta estrat„gia simplista n‚o „ est€vel numericamente se mais de um pequeno n†mero de componentes principais s‚o exigidos, porque imprecis…es nos c€lculos afetar‚o aditivamente as estimativas de componentes principais subsequentes. M„todos mais avan•ados elaboram na ideia b€sica, como no caso do similar en:Lanczos algorithm. •
Uma forma de se calcular o autovalor que corresponde a cada componente principal „ medir a diferen•a na soma de distƒncias ao quadrado entre as linhas e a m„dia, antes e depois de subtrair-se o componente principal. O autovalor que corresponde ao componente que foi removido „ igual a essa diferen•a.
O m‡todo NIPALS Para dados de alta dimensionalidade, tais como os gerados nas ciŠncias *omicas (e.g., genomica, en:metabolomics) e vis‚o computacional, „ geralmente necess€rio apenas calcular os primeiros componentes principais. O algoritmo en:non-linear iterative partial least squares (NIPALS) calcula t e p ' de X. O produto exterior, t p ' pode ent‚o ser 1 1 1 1 subtra‡do de X, restando a matriz residual E1. Isso pode ent‚o ser usado para calcular os componentes principais subsequentes.[20] Isso resulta numa redu•‚o dram€tica no tempo de c€lculo j€ que se evita um calculo completo e expl‡cito da matriz de covariƒncia.
7
An€lise de Componentes Principais
8
Estima‚ƒo online ou sequencial Numa situa•‚o "online" ou de "streaming" , com dados chegando parte por parte em vez de serem guardados num †nico batch, „ †til realizar uma estimativa da proje•‚o PCA que pode ser atualizada sequŠncialmente. Isso pode ser realizado eficientemente, mas exige algoritmos diferentes. [21]
Generaliza‚†es Generaliza‚†es nƒo-lineares A maioria dos m„todos modernos para en:nonlinear
dimensionality
reduction
encontram suas ra‡zes te‰ricas e algor‡tmicas no PCA ou K-means. A ideia original de Pearson era tomar uma reta (ou plano) que seja o "melhor ajuste" a um Curvas conjunto de pontos/dados. [24] fornecem o principais e variedades framework natural para a generaliza•‚o do PCA e estendem a interpreta•‚o do PCA ao construirem explicitamente uma variedade para aproxima•‚o de dados, e ao codificar usando proje•‚o matem€ticas padr‚o sobre a variedade, como ilustrado pela Fig. Ver tamb„m o algoritmo en:elastic map e en:principal geodesic analysis.
Generaliza‚†es Multilineares No en:multilinear subspace learning, o PCA „ generalizado a multilinear PCA (MPCA), o qual estrai caracter‡sticas diretamente de representa•…es tensoriais. MPCA „ resolvido fazendo-se PCA iterativamente em cada moda do tensor. MPCA tem sido aplicado ao reconhecimento de faces, reconhecimento de andar ( gait ), gestos, etc. O MPCA pode ser estendido ao uncorrelated MPCA, MPCA n‚o-negativo and MPCA robusto.
[22] Linear PCA versus nonlinear Principal Manifolds para visualiza•‚o de dados de microarray de cƒncer de mama: a) Configura•‚o de n‰s e superf‡cie principal 2D na variedade linear 3D de PCA. O conjunto de dados „ curvo e n‚o pode ser adequadamente mapeado num plano principal 2D; b) A distribui•‚o nas coordenadas n‚o-lineares internas da superf‡cie principal (ELMap2D) junto com uma estimativa da densidade de pontos; c) O mesmo que b), mas para a variedade PCA 2D (PCA2D). O subtipo de cƒncer de mama "basal" „ melhor visualizado com ELMap2D e algumas caracter‡sticas da distribui•‚o tornam-se melhor resolvidas em compara•‚o ao PCA2D. Variedades principais s‚o produzidas pelo [23] algoritmo de en:elastic maps. H€ dados dispon‡veis para competi•‚o p†blica.
Ordens mais altas O N-way PCA pode ser realizado com modelos tais como en:Tucker decomposition, en:PARAFAC, multiple factor analysis, co-inertia analysis, STATIS, and DISTATIS.
Robustez - PCA com pesos
An€lise de Componentes Principais
9
Apesar do PCA encontrar o m„todo matematicamente ‰timo (no sentido de minimizar o erro quadr€tico), ele „ sens‡vel a outliers nos dados, que produzem grandes erros que o PCA tenta evitar. Portanto, „ de praxe remover os outliers ao calcular o PCA. No entanto, em alguns contextos, os outliers podem ser dif‡ceis de se identificar de antem‚o. Por exemplo, em algoritmos de minera•‚o de dados como en:correlation clustering, a atribui•‚o de pontos a clusters e outliers n‚o „ conhecida de antem‚o. Uma generaliza•‚o proposta recentemente de PCA [25] baseada em um PCA com pesos aumenta a robustez, associando pesos diferentes aos dados de acordo com sua relevƒncia estimada.
Notas [3] Shaw P.J.A. (2003) Multivariate statistics for the Environmental Sciences , Hodder-Arnold. ISBN 0-3408-0763-6. [4] Jolliffe I.T. Principal Component Analysis (http:/ / www.springer.com/ west/ home/ new+&+forthcoming+titles+ (default)?SGWID=4-40356-22-2285433-0), Series: Springer Series in Statistics (http:/ / www.springer.com/ west/ home/ statistics/ statistical+theory+and+methods?SGWID=4-10129-69-173621571-0), 2nd ed., Springer, NY, 2002, XXIX, 487 p. 28 illus. ISBN 978-0-387-95442-4 [5] A. A. Miranda, Y. A. Le Borgne, and G. Bontempi. New Routes from Minimal Approximation Error to Principal Components (http:/ / www. ulb.ac.be/ di/ map/ yleborgn/ pub/ NPL_PCA_07.pdf), Volume 27, Number 3 / June, 2008, Neural Processing Letters, Springer [7] Jonathon Shlens, A Tutorial on Principal Component Analysis. (http:/ / www.snl.salk.edu/ ~shlens/ pca.pdf) [8] Informa•…es adicionais podem ser lidas aqui (http:/ / www.cs.otago.ac.nz/ cosc453/ student_tutorials/ principal_components.pdf) [9] A.A. Miranda, Y.-A. Le Borgne, and G. Bontempi. New Routes from Minimal Approximation Error to Principal Components (http:/ / www. ulb.ac.be/ di/ map/ yleborgn/ pub/ NPL_PCA_07.pdf), Volume 27, Number 3 / June, 2008, Neural Processing Letters, Springer [10] Eigenvalues function (http:/ / reference.wolfram.com/ mathematica/ ref/ Eigenvalues.html) Mathematica documentation [11] http:/ / stat.ethz.ch/ R-manual/ R-patched/ library/ stats/ html/ princomp.html [12] http:/ / stat.ethz.ch/ R-manual/ R-patched/ library/ stats/ html/ prcomp.html [13] http:/ / cran.r-project.org/ web/ views/ Multivariate.html [14] http:/ / octave.sourceforge.net/ statistics/ function/ princomp.html [17] http:/ / code.google.com/ p/ cornell-spectrum-imager/ wiki/ Home [18] http:/ / weka.sourceforge.net/ doc/ weka/ attributeSelection/ PrincipalComponents.html [19] Roweis, Sam. "EM Algorithms for PCA and SPCA." Advances in Neural Information Processing Systems. Ed. Michael I. Jordan, Michael J. Kearns, and Sara A. Solla The MIT Press, 1998. [22] A. N. Gorban, A. Y. Zinovyev, Principal Graphs and Manifolds (http:/ / arxiv.org/ abs/ 0809.0490), In: Handbook of Research on Machine Learning Applications and Trends: Algorithms, Methods and Techniques, Olivas E.S. et al Eds. Information Science Reference, IGI Global: Hershey, PA, USA, 2009. 28-59. [23] Wang, Y., Klijn, J.G., Zhang, Y., Sieuwerts, A.M., Look, M.P., Yang, F., Talantov, D., Timmermans, M., Meijer-van Gelder, M.E., Yu, J. et al.: Gene expression profiles to predict distant metastasis of lymph-node-negative primary breast cancer. Lancet 365, 671-679 (2005); Data online (http:/ / www.ihes.fr/ ~zinovyev/ princmanif2006/ ) [24] A. Gorban, B. Kegl, D. Wunsch, A. Zinovyev (Eds.), Principal Manifolds for Data Visualisation and Dimension Reduction, (http:/ / pca. narod.ru/ contentsgkwz.htm) LNCSE 58, Springer, Berlin Heidelberg New York, 2007. ISBN 978-3-540-73749-0 •
•
ReferŠncias ‘ Jolliffe, I. T.. Principal Component Analysis (http:/ / www.springer.com/ west/ home/ new+&+forthcoming+ titles+(default)?SGWID=4-40356-22-2285433-0). [S.l.]: Springer-Verlag, 1986. 487 p. ISBN 978-0-387-95442-4
Liga‚†es externas ‘ Material on-line de cursos de graduacao e pos-graduacao de Algebra Linear Numerica/Aplicada e Analise Matricial do [[IPRJ (http:/ / wiki.nosdigitais.teia.org.br/ Algebra_Linear_Numerica)]] (em portuguŠs)
Fontes e Editores da P€gina
10
Fontes e Editores da P€gina An€lise de Componentes Principais Fonte: http://pt.wikipedia.org/w/index.php?oldid=35902717 Contribuidores: ChristianH, Eamaral, EuTuga, Liberio, Luiza Teles, Mschlindwein, Vanthorn,
1 edi•…es an‰nimas
Fontes, Licen‚as e Editores da Imagem Imagem:GaussianScatterPCA.png Fonte: http://pt.wikipedia.org/w/index.php?title=Ficheiro:GaussianScatterPCA.png Licen€a: GNU Free Documentation License Contribuidores:
Ben
ƒ
FrantzDale (talk) (Transferred by ILCyborg) Imagem:Elmap breastcancer wiki.png Fonte: http://pt.wikipedia.org/w/index.php?title=Ficheiro:Elmap_breastcancer_wiki.png Licen€a: Public Domain Contribuidores: self-made, “”–—˜
™š”›œ—œ=Andrei Zinovyev
Licen‚a Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/