Valor propio, vector propio e espazo propio

Na Galipedia, a Wikipedia en galego.
Nesta transformación da Mona Lisa, a imaxe deformouse de tal forma que o seu eixe vertical non cambiou (Nota: recortáronse as esquinas na imaxe da dereita). O vector azul, representado pola frecha azul que vai dende o peito até o ombreiro, cambiou de dirección, mentres que o vermello, representado pola frecha vermella, non cambiou. O vector vermello é entón un vector propio da transformación, mentres que o azul non o é. Dado que o vector vermello non cambiou de lonxitude, o seu valor propio é 1. Todos os vectores desta mesma dirección son vectores propios, co mesmo valor propio. Forman un subespacio do espazo propio deste valor propio.

En álxebra linear, os vectores propios, autovectores ou eigenvectores dun operador linear son os vectores non nulos que, cando son transformados polo operador, dan lugar a un múltiplo escalar de si mesmos, co que non cambian a súa dirección. Este escalar recibe o nome valor propio, autovalor, valor característico ou eigenvalor. A miúdo, unha transformación queda completamente determinada polos seus vectores propios e valores propios. Un espazo propio, autoespazo, eigenespazo ou subespazo fundamental asociado ao valor propio é o conxunto de vectores propios cun valor propio común.

A palabra alemá eigen, que se traduce en galego como propio, empregouse por primeira vez neste contexto por David Hilbert en 1904 (aínda que Helmholtz a empregara previamente cun significado parecido). Eigen traduciuse tamén como inherente, característico ou o prefixo auto-, onde se aprecia a énfase na importancia dos valores propios para definir a natureza única dunha determinada transformación linear. As denominacións vector e valor característicos tamén se utilizan habitualmente.

Introdución[editar | editar a fonte]

As transformacións lineares do espazo —como a rotación, a reflexión, o alargamento, ou calquera combinación das anteriores; nesta lista poderían incluírse outras transformacións— poden interpretarse mediante o efecto que producen nos vectores. Os vectores poden visualizarse como frechas dunha certa lonxitude apuntando nunha dirección e sentido determinados.

  • Os vectores propios das transformacións lineares son vectores que, ou non son afectados pola transformación ou só resultan multiplicados por un escalar e, polo tanto, non varían a súa dirección.[1]
  • O valor propio dun vector propio é o factor de escala polo que foi multiplicado.
  • Un espazo propio é un espazo formado por todos os vectores propios do mesmo valor propio, ademais do vector nulo, que non é un vector propio.
  • A multiplicidade xeométrica dun valor propio é a dimensión do espazo propio asociado.
  • O espectro dunha transformación en espazos vectoriales finitos é o conxunto de todos os seus valores propios.

Por exemplo, un vector propio dunha rotación en tres dimensións é un vector situado no eixe de rotación sobre o cal se realiza a rotación. O valor propio correspondente é 1 e o espazo propio é o eixe de xiro. Como é un espazo dunha dimensión, a súa multiplicidade xeométrica é un. É o único valor propio do espectro (desta rotación) que é un número real.

Definición[editar | editar a fonte]

Formalmente, defínense os vectores propios e valores propios da seguinte maneira: sexa A: VV un operador linear nun certo -espazo vectorial V e v un vector non nulo en V. Se existe un escalar c tal que


entón dise que v é un vector propio do operador A, e o seu valor propio asociado é c. Cómpre observar que se v é un vector propio co valor propio c entón calquera múltiplo diferente de cero de v é tamén un vector propio co valor propio c. De feito, todos os vectores propios co valor propio asociado c xunto con 0, forman un subespazo de V, o espazo propio para o valor propio c. Ademais un espazo propio Z é un subespazo invariante de A, é dicir dado w un vector en Z, o vector Aw tamén pertence a Z.

Exemplos[editar | editar a fonte]

A medida que a Terra rota, os vectores no eixe de rotación permanecen invariantes. Se se considera a transformación linear que sofre a Terra tras unha hora de rotación, unha frecha que partise do centro da Terra ao polo sur xeográfico sería un vector propio desta transformación, pero unha frecha que partise do centro a un punto do ecuador non sería un vector propio. Dado que a frecha que apunta ao polo non cambia de lonxitude pola rotación, o seu valor propio é 1.

Outro exemplo sería unha lámina de metal que se expandise uniformemente a partir dun punto de tal maneira que as distancias desde calquera punto ao momento fixo se duplicasen. Esta expansión é unha transformación con valor propio 2. Cada vector desde o punto fixo a calquera outro é un vector propio, e o espazo propio é o conxunto de todos eses vectores.

Onda estacionaria nunha corda fixa nos seus cabos ou, máis concretamente, unha función propia da transformación correspondente ao transcurso do tempo. A medida que varía o tempo, a onda estacionaria varía en amplitude, pero o seu período non se modifica. Neste caso o valor propio é dependente do tempo.

Con todo, o espazo xeométrico tridimensional non é o único espazo vectorial. Por exemplo, se se considera unha corda suxeita polos seus extremos, como a dun instrumento de corda (mostrada á dereita). A distancia dos átomos da corda vibrante dende as súas posicións cando esta está en repouso poden interpretarse como compoñentes dun vector no espazo con tantas dimensións como átomos teña esa corda.

Se se supón que a corda é un medio continuo e se considera a transformación da corda no transcurso do tempo, os seus vectores propios ou funcións propias son as súas ondas estacionarias— o que, mediante a intervención do aire circundante, se pode interpretar como o resultado de tanguer unha guitarra. As ondas estacionarias corresponden a oscilacións particulares da corda tales que a forma da corda se escala por un factor (o valor propio) co paso do tempo. Cada compoñente do vector asociado coa corda multiplícase por este factor dependente do tempo. As amplitudes (valores propios) das ondas estacionarias decrecen co tempo se se considera a atenuación. Neste caso pódese asociar un tempo de vida ao vector propio, e relacionar o concepto de vector propio co concepto de resonancia.

Casos de interese especial[editar | editar a fonte]

Intuitivamente, para as transformacións lineares do espazo de dúas dimensións ℝ3 , os vectores propios son:

  • rotación: ningún vector propio de valores reais (existen en cambio pares valor propio, vector propios complexos).
  • reflexión: os vectores propios son perpendiculares e paralelos ao eixe de simetría, os valores propios son -1 e 1, respectivamente.
  • escalado uniforme: todos os vectores son vectores propios, e o valor propio é o factor de escala.
  • proxección sobre unha recta: os vectores propios co valor propio 1 son paralelos á liña, vectores propios co valor propio 0 son perpendiculares á dirección da proxección

Ecuación do valor propio ou autovalor[editar | editar a fonte]

Matematicamente, vλ é un vector propio e λ o valor propio correspondente dunha transformación T se verifica a ecuación:


onde T(vλ) é o vector obtido ao aplicar a transformación T a vλ.

Supóñase que T é unha transformación linear (o que significa que para todos os escalares a, b, e os vectores v, w). Considérese unha base nese espazo vectorial. Entón, T e vλ poden representarse en relación a esa base mediante unha matriz AT e un vector columna vλ—un vector vertical unidimensional. A ecuación de valor propio nesta representación matricial represéntase da seguinte forma:


onde a yuxtaposición é un produto de matrices. Dado que nesta circunstancia a transformación T e a súa representación matricial AT son equivalentes, a miúdo podemos empregar só T para a representación matricial e a transformación. Isto é equivalente a un conxunto de n combinacións lineares, onde n é o número de vectores da base. Nesta ecuación, tanto o autovalor λ e as n compoñentes de vλ son descoñecidos.

Con todo, ás veces é pouco natural ou mesmo imposible escribir a ecuación do autovector en forma matricial. Isto ocorre, por exemplo, cando o espazo vectorial é de dimensión infinita, por exemplo no caso da corda mostrada anteriormente. Dependendo da natureza da transformación T e o espazo ao que se aplica, pode ser vantaxoso representar a ecuación de autovalor como un conxunto de ecuacións diferenciais, onde os autovectores reciben a miúdo o nome de autofuncións do operador diferencial que representa T. Por exemplo, a derivación mesma é unha transformación linear, xa que (se f(t) e g(t) son funcións derivables e a e b son constantes)

Considérese a diferenciación con respecto a . As súas autofuncións h(t) obedecen á ecuación do autovalor:

,

onde λ é o autovalor asociado coa función. Unha función no tempo é constante se , crece proporcionalmente a si mesma se é positiva, e decrece proporcionalmente a si mesma se é negativa. Por exemplo, unha poboación ideal de coellos procrea con máis frecuencia a medida que hai máis coellos, e por tanto satisfai a ecuación para lambda positivo.

A solución á ecuación de valor propio é , a función exponencial; pois esa función é unha función propia do operador diferencial d/dt co valor propio λ. Se λ é negativa, a evolución de g denomínase decaemento exponencial; se é positiva denomínase crecemento exponencial. O valor de λ pode ser calquera número complexo. O espectro de d/dt é entón o plano complexo na súa totalidade. Neste exemplo o espazo vectorial no que actúa d/dt é o espazo das funcións derivables dunha variable. Este espazo ten unha dimensión infinita (pois non é posible expresar cada función diferenciable como combinación linear dun número finito de funcións base). No entanto, o espazo propio asociado a un valor propio determinado λ é unidimensional. É o conxunto de todas as funcións , onde A é unha constante arbitraria, a poboación inicial en t=0.

Teorema espectral[editar | editar a fonte]

O teorema espectral mostra a importancia dos valores propios e vectores propios para caracterizar unha transformación linear de forma única. Na súa versión máis simple, o teorema espectral establece que, baixo unhas condicións determinadas, unha transformación lineal pode expresarse como a combinación linear dos vectores propios con coeficientes de valor igual aos valores propios polo produto escalar dos vectores propios polo vector ao que se aplica a transformación, o que pode escribirse como:

onde y representan os vectores propios e valores propios de . O caso máis simple no que ten validez o teorema é cando a transformación linear vén dada por unha matriz simétrica real ou unha matriz hermitiana complexa.

Se se define a n-ésima potencia dunha transformación como o resultado de aplicala n veces sucesivas, pódese definir tamén o polinomio das transformacións. Unha versión máis xeral do teorema é que calquera polinomio P de é igual a:

O teorema pode estenderse a outras funcións ou transformacións tales como funcións analíticas, sendo o caso máis xeral as funcións de Borel.

Vectores propios e valores propios de matrices[editar | editar a fonte]

Cálculo de valores propios e vectores propios de matrices[editar | editar a fonte]

Se se quere calcular os valores propios dunha matriz dada e esta é pequena, pódese calcular simbolicamente empregando o polinomio característico. Con todo, a miúdo resulta imposible para matrices extensas, caso no que se debe usar un método numérico.

Cálculo simbólico[editar | editar a fonte]

Cálculo dos valores propios

Unha ferramenta importante para atopar valores propios de matrices cadradas é o polinomio característico: dicir que λ é un valor propio de A é equivalente a dicir que o sistema de ecuacións lineares A v = λ vA v - λ v = 0 (factorizando por v queda (A - λI) v = 0 onde I é a matriz identidade) ten unha solución non nula v (un vector propio), e desta forma é equivalente ao determinante:

A función p(λ) = det(A - λI) é un polinomio de λ pois os determinantes defínense como sumas de produtos. Este é o polinomio característico de A: os valores propios dunha matriz son os ceros do seu polinomio característico.

Todos os valores propios dunha matriz A poden calcularse resolvendo a ecuación .

Se A é unha matriz n×n, entón ten grao n e A ten como máximo n valores propios.

O teorema fundamental da álxebra di que esta ecuación ten exactamente n raíces (ceros), tendo en conta a súa multiplicidade. Todos os polinomios reais de grao impar teñen un número real como raíz, así que para n impar toda matriz real ten polo menos valor propio real. No caso das matrices reais, para n par e impar, os valores propios non reais son pares conxugados.

Cálculo dos vectores propios

Unha vez que se coñecen os valores propios λ, os vectores propios pódense achar resolvendo o sistema de ecuacións homoxéneo:

Unha forma máis sinxela de obter vectores propios sen resolver un sistema de ecuacións lineares baséase no teorema de Cayley-Hamilton que establece que cada matriz cadrada satisfai o seu propio polinomio característico. Así, se son os valores propios de A cúmprese que

polo que os vectores columna de son vectores propios de .

Exemplo de matriz sen valores propios reais

Un exemplo de matriz sen valores propios reais é a rotación de 90 graos no sentido das agullas do reloxo:

que ten como polinomio característico e os seus valores propios son o par de conxugados complexos i, -i. Os vectores propios asociados tampouco son reais.

Exemplo

Considérese a matriz

que representa un operador linear R³ → R³. Se se desexa computar todos os valores propios de A, poderíase comezar determinando o polinomio característico:

e porque p(x) = - (x - 2)(x - 1)(x + 1) vese que os valores propios de A son 2, 1 e -1. O teorema de Cayley-Hamilton establece que cada matriz cadrada satisfai o seu propio polinomio característico. É dicir

Efectivamente, para o caso do valor propio 2, pódese comprobar que

de onde (1, 1, -1) é un vector propio asociado a 2.

Cálculo numérico[editar | editar a fonte]

Na práctica, os valores propios das matrices extensas non se calculan empregando o polinomio característico. Calcular o polinomio resulta moi custoso, e extraer as raíces exactas dun polinomio de grao alto pode ser difícil de calcular e expresar: o teorema de Abel-Ruffini implica que as raíces dos polinomios de grao alto (5 ou superior) non poden expresarse usándose simplemente raíces n-ésimas. Existen algoritmos eficientes para aproximar raíces de polinomios, pero pequenos erros na estimación dos valores propios poden dar lugar a erros grandes nos vectores propios. En consecuencia, os algoritmos xerais para atopar vectores propios e valores propios son iterativos. A maneira máis fácil é o método das potencias: escóllese un vector aleatorio e calcúlase unha secuencia de vectores unitarios:

, , ,...

Esta sucesión case sempre converxerá a un vector propio correspondente ao maior valor propio. Este algoritmo é sinxelo, pero non demasiado útil illadamente. Con todo, hai métodos máis populares, como a descomposición QR, que se basean nel.

Propiedades[editar | editar a fonte]

Multiplicidade alxébrica[editar | editar a fonte]

A multiplicidade alxébrica dun valor propio λ de A é a orde de λ como cero do polinomio característico de A; noutras palabras, se λ é unha das raíces do polinomio, é o número de factores (tλ) no polinomio característico tras a factorización. Unha matriz n×n, con entradas complexas, ten n valores propios, contados de acordo coa súa multiplicidade alxébrica, xa que o seu polinomio característico ten grao n.

Un valor propio de multiplicidade alxébrica 1 recibe o nome de "valor propio simple".

Por exemplo, pódense atopar exposicións como a seguinte en artigos de teoría de matrices:

"os valores propios dunha matriz A son 4,4,3,3,3,2,2,1,"

o que significa que a multiplicidade alxébrica de 4 é dous, a de 3 é tres, a de 2 é dous e a de 1 é un. Emprégase este estilo porque a multiplicidade alxébrica é a clave de moitas demostracións matemáticas en teoría de matrices.

Anteriormente definiuse a multiplicidade xeométrica dun valor propio como a dimensión do espazo propio asociado, ou o núcleo (espazo propio dos vectores propios do valor propio nulo) de λI - A. A multiplicidade alxébrica tamén pode entenderse como unha dimensión: é a dimensión do espazo propio xeneralizado (1.º sentido) asociado, que é o núcleo da matriz (λI - A)k para k suficientemente grande. É dicir, é o espazo dos vectores propios xeneralizados (1.º sentido), onde un vector propio xeneralizado é calquera vector que toma valor 0 se λI - A se aplica suficientes veces en sucesión. Calquera vector propio é un vector propio xeneralizado, así que calquera espazo propio está contido no espazo propio xeneralizado asociado. Isto proporciona unha demostración simple de que a multiplicidade xeométrica é sempre menor ou igual á alxébrica. O primeiro sentido non debe de confundirse co problema de valores propios xeneralizados tal e como se mostra máis adiante.

Por exemplo:

Só ten un valor propio λ = 1. O polinomio característico é , así que este valor propio ten multiplicidade alxébrica 2. Con todo, o espazo propio asociado é o eixe, que normalmente recibe o nome de eixe X, xerado polo vector unitario , así que a multiplicidade xeométrica é 1.

Os vectores propios xeneralizados poden empregarse para calcular a forma normal de Jordan dunha matriz. O feito de que os bloques de Jordan en xeral non son diagonais senón nilpotentes está directamente relacionado coa distinción entre vectores propios e vectores propios xeneralizados.

Teoremas de descomposición para matrices xerais[editar | editar a fonte]

O teorema de descomposición é unha versión do teorema espectral nunha clase concreta de matrices. Este teorema explícase normalmente en termos de transformación coordinada. Se U é unha matriz invertible, pode verse como unha transformación entre un sistema de coordenadas e outro, onde as columnas de U son as compoñentes da nova base de vectores expresados en termos da base anterior. Neste novo sistema as coordenadas do vector represéntanse por , que pode obterse mediante a relación e, por outra banda, tense . Aplicando sucesivamente , e , á relación proporciona con , a representación de A na nova base. Nesta situación, dise que as matrices A e son semellantes.

O teorema de descomposición indica que, se se escollen como columnas de n vectores propios linearmente independentes de A, a nova matriz é diagonal e os seus elementos na diagonal son os valores propios de A. Se isto é posible, entón A é unha matriz diagonalizable. Un exemplo dunha matriz non diagonalizable é a matriz A xa mostrada:

Hai moitas xeneralizacións desta descomposición que poden tratar co caso non diagonalizable, deseñadas con diferentes propósitos:

  • a descomposición de Schur declara que toda matriz é equivalente a unha matriz triangular.
  • a descomposición en valores singulares, onde é diagonal con U e V matrices unitarias, os elementos da diagonal de non son negativos e reciben o nome de valores singulares de A. Esta descomposición tamén pode facerse en matrices non cadradas.
  • a forma normal de Jordan, onde e non é diagonal senón diagonal por bloques. O número e tamaño dos bloques de Jordan están determinados polas multiplicidades xeométrica e alxébrica dos valores propios. A descomposición de Jordan é un resultado fundamental. A partir dela pódese deducir inmediatamente que unha matriz cadrada está descrita completamente polos seus valores propios, incluíndo a multiplicidade. Isto mostra matematicamente o importante papel que desempeñan os valores propios no estudo de matrices.
  • como consecuencia inmediata da descomposición de Jordan, calquera matriz A pode escribirse de forma única como A=S + N onde S é diagonalizable, N é nilpotente (por exemplo, tal que Nq=0 para un certo q), e S cumpre a propiedade conmutativa do produto (SN=NS).

Outras propiedades dos valores propios[editar | editar a fonte]

O espectro é invariante baixo transformacións semellantes: as matrices A e P−1AP teñen os mesmos valores propios para calquera matriz A e calquera matriz invertible P. O espectro é tamén invariante á transposición das matrices: A e AT teñen os mesmos valores propios.

Dado que unha transformación linear en espazos de dimensións finitas é bixectiva se e só se é inxectiva, unha matriz é invertible se e só se cero non é un valor propio da matriz.

Outras consecuencias da descomposición de Jordan son:

  • unha matriz é matriz diagonalizable se e só se as multiplicidades xeométrica e alxébrica coinciden para todos os seus valores propios. En particular unha matriz n×n que ten n valores propios diferentes é sempre diagonalizable;
  • Dado que a traza, ou a suma de elementos da diagonal principal dunha matriz se conserva na equivalencia unitaria, a forma normal de Jordan constata que é igual á suma dos seus valores propios.
  • De forma similar, dado que os valores propios dunha matriz triangular son os elementos da diagonal principal o seu determinante é igual ao produto dos valores propios (contados de acordo coa súa multiplicidade alxébrica).

Algúns exemplos da localización do espectro de certas subclases de matrices normais son:

Se A é unha matriz m×n con mn, e B é unha matriz n×m, entón BA ten os mesmos valores propios de AB máis nm valores propios nulos.

A cada matriz pódeselle asociar unha norma vectorial, que depende da norma do seu dominio, a operador norma dunha matriz cadrada é un límite superior do módulo dos seus valores propios, e polo tanto do seu raio espectral. Esta norma está directamente relacionada co método das potencias para calcular o valor propio de maior módulo. Para matrices normais, o operador norma (a norma euclidiana) é o maior módulo entre os seus valores propios.

Vector propio conxugado[editar | editar a fonte]

Un vector propio conxugado é un vector que tras a transformación pasa a ser un múltiple escalar do seu conxugado, onde o escalar recibe o nome de valor propio conxugado da transformación linear. Os vectores propios e valores propios conxugados representan esencialmente a mesma información e significado que os vectores propios e valores propios, pero aparecen cando se utiliza un sistema de coordenadas alternativo. A ecuación correspondente é:

Por exemplo, en teoría de electromagnetismo disperso, a transformación linear A representa a acción efectuada polo obxecto dispersor, e os vectores propios representan os estados de polarización da onda electromagnética. En óptica, o sistema coordenado defínese a partir do punto de vista da onda, e leva a unha ecuación de valor propio regular, mentres que no radar, o sistema coordenado defínese dende o punto de vista do radar, e dá lugar a unha ecuación de valor propio conxugado.

Problema de valor propio xeneralizado[editar | editar a fonte]

Un problema de valor propio xeneralizado (2.º sentido) é da forma

onde A e B son matrices. Os valores propios xeneralizados (2.º sentido) λ poden obterse resolvendo a ecuación

O conxunto de matrices da forma , onde é un número complexo, recibe o nome de lapis se B é invertible, entón o problema orixinal pode escribirse na forma

que é un problema de valores propios estándar. Con todo, na maioría das situacións é preferible non realizar a inversión, e resolver o problema do valor propio xeneralizado coa configuración orixinal.

Se A e B son matrices simétricas con elementos reais, entón os valores propios son reais. Isto apréciase moi facilmente a partir da segunda formulación equivalente, pois a matriz non é necesariamente simétrica se A e B o son.

A aplicación de moleculares orbitais exposta máis adiante proporciona un exemplo deste caso.

Elementos dun anel[editar | editar a fonte]

Nunha matriz cadrada A con elementos dun anel, λ recibe o nome de valor propio pola dereita se existe un vector columna x tal que Axx, ou un valor propio pola esquerda se existe un vector fila non nulo y tal que yA=yλ.

Se o anel é conmutativo, os valores propios pola esquerda son iguais aos valores propios pola dereita e chámaselles simplemente valores propios.

Espazos de dimensión infinita[editar | editar a fonte]

Espectro de absorción dun átomo de calcio. Os picos corresponden, en teoría, ao espectro discreto (series de Rydberg) do hamiltoniano; a ampla estrutura da dereita asóciase ao espectro continuo (ionización). Os resultados experimentais asociados obtivéronse medindo a intensidade dos raios X absorbidos por un gas de átomos como función da enerxía de incidencia dos fotóns en eV.[2]

Se o espazo vectorial é de dimensión infinita, a noción de valores propios pode xeneralizarse ao concepto de espectro. O espectro é o conxunto de escalares λ para o que , non está definido, isto é, tal que non ten inversa limitada.

Se λ é un valor propio de T, λ está no espectro de T. En xeral, o recíproco non é verdadeiro. Hai operadores nos espazos de Hilbert ou Banach que non teñen vectores propios. Por exemplo, se se toma un desprazamento bilateral no espazo de Hilbert ; ningún vector propio potencial pode ser cadrado-sumable, así que non existe ningún. Con todo, calquera operador linear limitado nun espazo de Banach V ten espectro non baleiro. O espectro do operador T VV defínese como

non é invertible

Entón σ(T) é un conxunto compacto de números complexos, e é non baleiro. Cando T é un operador compacto (e en particular cando T é un operador entre espazos finito-dimensionais como arriba), o espectro de T é igual que o conxunto dos seus valores propios.

En espazos de dimensión infinita, o espectro dun operador limitado é sempre non baleiro, o que tamén se cumpre para operadores adxuntos propios non limitados. A través da súa medida espectral, o espectro de calquera operador adxunto propio, limitado ou non, pode descomporse nas súas partes absolutamente continua, discreta e singular. O crecemento exponencial proporciona un exemplo dun espectro continuo, como no caso anterior da corda vibrante. O átomo de hidróxeno é un exemplo no que aparecen ambos os tipos de espectro. O estado ligado do átomo de hidróxeno corresponde á parte discreta do espectro, mentres que o proceso de ionización queda descrito pola parte continua.

Aplicacións[editar | editar a fonte]

Ecuación de Schrödinger[editar | editar a fonte]

A función de onda asociada aos estados ligados dun electrón nun átomo de hidróxeno pode verse como os vectores propios do átomo de hidróxeno hamiltoniano así como o operador momento angular. Está asociada aos valores propios interpretados como as súas enerxías (incrementándose segundo n=1, 2, 3...) e ao momento angular (incrementándose segundo s, p, d...). Aquí móstrase o cadrado do valor absoluto das funcións de onda. As áreas máis iluminadas corresponden a densidades de probabilidade máis altas para unha posición. O centro de cada figura é o núcleo atómico, un protón.

Un exemplo dunha ecuación de valor propio onde a transformación se representa en termos dun operador diferencial é a ecuación de Schrödinger independente do tempo da mecánica cuántica:


Onde H, o hamiltoniano, é un operador diferencial de segunda orde e a función de onda, é unha das funcións propias correspondentes ao valor propio E, interpretado como a enerxía.

Non obstante, no caso de que só se busquen solucións para os estados ligados da ecuación de Schrödinger, como adoita ser o caso en química cuántica, buscarase no espazo das funcións de cadrado integrable. Dado que este espazo é un espazo de Hilbert, cun produto escalar ben definido, pódese introducir unha base na que se pode representar e H como un vector unidimensional e unha matriz respectivamente. Isto permite representar a ecuación de Schrödinger en forma matricial.

A notación bra-ket, utilizada a miúdo neste contexto, pon énfase na diferenza entre o vector ou estado e a súa representación, a función . Neste contexto escríbese a ecuación de Schrödinger

e chámase a un estado propio de H (que ás veces se representa como ) que pode interpretarse como unha transformación en lugar dunha representación particular en termos de operadores diferenciais. Na ecuación exposta, interprétase como o vector obtido por aplicación da transformación H a .

Orbitais moleculares[editar | editar a fonte]

En mecánica cuántica, e en particular en física atómica e molecular, e no contexto da teoría de Hartree-Fock, os orbitais atómicos e moleculares poden definirse polos vectores propios do operador de Fock. Os valores propios correspondentes son interpretados como potenciais de ionización a través do teorema de Koopmans. Neste caso, o vocábulo vector propio úsase cun significado máis xeral, pois o operador de Fock é explicitamente dependente dos orbitais e os seus valores propios. Se se quere subliñar este aspecto fálase de ecuación de valores propios implícitos. Tales ecuacións resólvense normalmente mediante un proceso iterativo, chamado método de campo consistente propio. En química cuántica a miúdo represéntase a ecuación de Hartree-Fock nunha base non ortogonal. Esta representación particular é un problema de valor propio xeneralizado que ten o nome de ecuacións de Roothaan.

Análise factorial[editar | editar a fonte]

En análise factorial, os valores propios da matriz de covarianza corresponden aos factores, e os valores propios ás cargas. A análise factorial é unha técnica estatística usada en ciencias sociais e mercadotecnia, xestión de produto, investigación operativa e outras ciencias aplicadas que tratan con grandes cantidades de datos. O obxectivo é explicar a maior parte da variabilidade entre varias variables aleatorias observables en termos dun número menor de variables aleatorias non observables chamadas factores. As variables aleatorias non observables modélanse como combinacións lineares dos factores máis os termos de erros.

Caras propias, un exemplo do uso de vectores propios.

No procesado de imaxe, as imaxes procesadas de caras poden verse como vectores cuxas compoñentes son a luminancia de cada píxel. A dimensión deste espazo vectorial é o número de píxeles. Os vectores propios da matriz de covarianza asociada a un conxunto amplo de imaxes normalizadas de rostros chámanse caras propias. Son moi útiles para expresar unha imaxe dun rostro como a combinación linear doutras. As caras propias proporcionan un medio de aplicar compresión de datos aos rostros, para propósitos de biometría.

Tensor de inercia[editar | editar a fonte]

En mecánica, os vectores propios do momento de inercia definen os eixes principais dun corpo ríxido. O tensor de inercia é necesario para determinar a rotación dun corpo ríxido ao redor do seu centro de masa. Os valores propios definen os momentos máximos e mínimos obtidos mediante o círculo de Mohr.

Tensor de tensión[editar | editar a fonte]

En mecánica de sólidos deformables, o tensor de tensión é simétrico, así que pode descomporse nun tensor diagonal con valores propios que están na diagonal e con vectores propios que forman unha base.

Valores propios dun grafo[editar | editar a fonte]

En teoría espectral de grafos, un valor propio dun grafo defínese como un valor propio da matriz de adxacencia do grafo A, ou da matriz laplaciana do grafo , onde T é unha matriz diagonal que contén o grao de cada vértice, e en , 0 substitúese por . O vector propio principal dun grafo úsase para medir a centralidade dos seus vértices. Un exemplo é o algoritmo PageRank de Google. O vector propio principal dunha matriz de adxacencia modificada do grafo da web dá o rango de páxina nos seus compoñentes.

Notas[editar | editar a fonte]

  1. Dado que ningunha transformación linear ten efecto sobre o vector nulo, este non se considera un vector propio.
  2. Gorczyca, TW: "Auger Decay of the Photoexcited Inner Shell Rydberg Series in Neon, Chlorine, and Argon". Abstracts of the 18th International Conference on X-ray and Inner-Shell Processes, Chicago, agosto 23-27 (1999).

Véxase tamén[editar | editar a fonte]

Bibliografía[editar | editar a fonte]

  • Cohen-Tannoudji, Claude. Quantum Mechanics, Wiley (1977). ISBN 0-471-16432-1. Capítulo II: “The mathematical tools of quantum mechanics”.
  • De Burgos, Juan. Álgebra lineal, Edit. MacGraW-Hill (1993).
  • Fraleigh, John B. e Beauregard, Raymond A. Linear Algebra (3.ª edición), Addison-Wesley Publishing Company (1995). ISBN 0-201-83999-7 (edición internacional).
  • Horn, Roger A. e Johnson, Charles R. Matrix Analysis, Cambridge University Press (1985). ISBN 0-521-30586-1.

Outros artigos[editar | editar a fonte]

Ligazóns externas[editar | editar a fonte]