martes, 1 de junio de 2010

VALORES Y VECTORES CARACTERISTICOS

Valores y vectores característicos

Definición de valores y vectores característicos de una matriz cuadrada
En álgebra lineal, los vectores propios, autovectores o eigenvectores de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar recibe el nombre valor propio, autovalor, valor característico o eigenvalor. A menudo, una transformación queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio o eigenespacio es el conjunto de vectores propios con un valor propio común.

Las transformaciones lineales del espacio—como la rotación, la reflexión, el ensanchamiento, o cualquier combinación de las anteriores; en esta lista podrían incluirse otras transformaciones—pueden interpretarse mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando en una dirección y sentido determinados.

Los vectores propios de las transformaciones lineales son vectores que, o no se ven afectados por la transformación o se ven multiplicados por un escalar que no varía su dirección.

El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.

Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, además del vector nulo, que no es un vector propio.

La multiplicidad geométrica de un valor propio es la dimensión del espacio propio asociado.

El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus valores propios.

Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y el espacio propio contiene a todos los vectores paralelos al eje. Como es un espacio de una dimensión, su multiplicidad geométrica es uno. Es el único valor propio del espectro (de esta rotación) que es un número real.

Formalmente, se definen los vectores propios y valores propios de
la siguiente manera: Si A: V ! V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de cero en V y c es un escalar (posiblemente cero) tales que




entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es también un vector propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el valor propio c.

Ecuación del valor propio o autovalo

Matemáticamente, v es un vector propio y el valor propio correspondiente de una transformación T si verifica la ecuación:




donde T(v ) es el vector obtenido al aplicar la transformación T a v .

Supóngase que T es una transformación lineal (lo que significa que
para todos los escalares a, b, y los vectores v, w). Considérese una base en ese espacio vectorial. Entonces, T y v pueden representarse en relación a esa base mediante una matriz AT y un vector columna v —un vector vertical unidimensional. La ecuación de valor propio en esta representación matricial se representa de la siguiente forma:




donde la yuxtaposición es un producto de matrices. Dado que en esta circunstancia la transformación T y su representación matricial AT son equivalentes, a menudo podemos emplear sólo T para la representación matricial y la transformación. Esto es equivalente a un conjunto de n combinaciones lineales, donde n es el número de vectores de la base. En esta ecuación, tanto el valor propio y las n componentes de v son desconocidos. Sin embargo, a veces es poco natural o incluso imposible escribir la ecuación de vector propio en forma matricial. Esto ocurre, por ejemplo, cuando el espacio vectorial es de dimensión infinita, como por ejemplo en el caso de la cuerda mostrada anteriormente. Dependiendo de la naturaleza de la transformación T y el espacio al que se aplica, puede ser ventajoso representar la ecuación de valor propio como un conjunto de ecuaciones diferenciales, donde los vectores propios reciben a menudo el nombre de funciones propias del operador diferencial que representa a T. Por ejemplo, la derivación misma es una transformación lineal, ya que (si f(t) y g(t) son funciones derivables y a y b son constantes)




Considérese la diferenciación con respecto a t. Sus funciones propias h(t) obedecen a la ecuación de valor propio:


,

donde es el valor propio asociado con la función. Una función en el tiempo es constante si = 0, crece proporcionalmente a sí misma si es positiva, y decrece proporcionalmente a sí misma si es negativa. Por ejemplo, una población ideal de conejos engendra con más frecuencia a medida que hay más conejos, y por tanto satisface la ecuación para lambda positivo.

La solución a la ecuación de valor propio es g(t) = exp( t), la función exponencial; pues esa función es una función propia del operador diferencial d/dt con el valor propio . Si es negativa, la evolución de g se denomina decaimiento exponencial; si es positiva se denomina crecimiento exponencial. El valor de puede ser cualquier número complejo. El espectro de d/dt es entonces el plano complejo en su totalidad. En este ejemplo el espacio vectorial en el que actúa d/dt es el espacio de las funciones derivables de una variable. Este espacio tiene una dimensión infinita (pues no es posible expresar cada función diferenciable como combinación lineal de un número finito de funciones base). No obstante, el espacio propio asociado a un valor propio determinado es unidimensional. Es el conjunto de todas las funciones g(t) = Aexp( t), donde A es una constante arbitraria, la población inicial en t=0.

Valor propio


Se dice que el número , real l o complejo, es un valor propio A si existe un vector no nulo u, real o complejo tal que Au = u, es decir (A " I )u = 0

Propiedades de los valores propios

Definición 3 Dos matrices n×n, A y B, se dicen semejantes si existe una matriz invertible P tal que A = P"1BP.

Teorema 3 Dos matrices semejantes tienen el mismo polinomio característico y, por consiguiente, los mismos valores propios.

Definición 4 Una matriz A se dice diagonalizable (por semejanza) si es semejante a una matriz diagonal.

Teorema 4 Una matriz A, n × n, es diagonalizable si y sólo si tiene n vectores propios linealmente independientes.

Teorema 5 La suma de los valores propios de una matriz A es igual a la traza de la matriz, es decir, 1 + 2 + · · · + n =aii.

Teorema 6 El producto de los valores propios de una matriz A es igual al determinante de la matriz.

Teorema 7 Los valores propios de una matriz triangular son los coeficientes de su diagonal principal.

Teorema 8 Una matriz A es singular si y solo si tiene un valor propio igual a cero.

Teorema 9 Si los valores propios de una matriz A son i, 0 " i " n, los valores propios de la matriz A " I son i " , 0 " i " n.

Los vectores propios de A y A " I son idénticos.

Teorema 10 Los valores propios de las potencias de una matriz A son las correspondientes potencias; los vectores propios son los mismos.


Vector propio

El vector u se denomina vector propio de A asociado al valor propio .

polinomio y ecuacion

Polinomio y ecuación caracteristica

En general, el polinomio que resulta de desarrollar |A " I |, cuyos ceros son precisamente los valores propios de A, se denomina polinomio característico.

P( ) = ("1)n n + a1 n"1 + … + an

Consideremos una matriz n-cuadrada arbitraria:




La matriz (A - l·In), donde In es la matriz identidad n-cuadrada y l un escalar indeterminado, se denomina matriz característica de A:




Su determinante, det (A - l·In) , que es un polinomio en l, recibe el nombre de polinomio característico de A. Asimismo, llamamos a det (A - l·In) = 0

Ecuación característica de A.

Ejemplo 1:

Hallar la matriz característica y el polinomio característico de la matriz A:





La matriz característica será (A - l·In). Luego:





y el polinomio característico,





Así pues, el polinomio característico es: l 2 - l + 4.

Determinación de los valores y vectores característicos de una matriz cuadrada

Determinación de los valores y vectores característicos de una matriz cuadrada

Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se debe usar un método numérico.

Cálculo simbólico

Encontrando valores propios

Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio característico: decir que es un valor propio de A es equivalente a decir que el sistema de ecuaciones lineales (A - I) v = 0 (donde I es la matriz identidad) tiene una solución no nula v (un vector propio), y de esta forma es equivalente al determinante:




La función p( ) = det(A - I) es un polinomio de pues los determinante se definen como sumas de productos. Éste es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico.

Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación pA( ) = 0.

Si A es una matriz n×n, entonces pA tiene grado n y A tiene al menos n valores propios.

El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces (ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un número real como raíz, así que para n impar toda matriz real tiene al menos valor propio real. En el caso de las matrices reales, para n par e impar, los valores propios no reales son pares conjugados.

Encontrando vectores propios

Una vez que se conocen los valores propios , los vectores propios se pueden hallar resolviendo:




Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el sentido de las manecillas del reloj:




cuyo polinomio característico es 2 + 1 y sus valores propios son el par de conjugados complejos i, -i. Los vectores propios asociados tampoco son reales.

Ejemplo

Considérese la matriz




que representa un operador lineal R³ ! R³. Si se desea computar todos los valores propios de A, se podría empezar determinando el polinomio característico:







y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio polinomio característico.

Efectivamente, para el caso del valor propio 2, se puede comprobar que




Cálculo numérico [editar]

En la práctica, los valores propios de las matrices extensas no se calculan usando el polinomio característico. Calcular el polinomio resulta muy costoso, y extraer las raíces exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o superior) no pueden expresarse usándose simplemente raíces enésimas. Existen algoritmos eficientes para aproximar raíces de polinomios, pero pequeños errores en la estimación de los valores propios pueden dar lugar a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores propios y valores propios son iterativos. La manera más fácil es el método de las potencias: se escoge un vector aleatorio v y se calcula una secuencia de vectores unitarios:


,
,
, ...

Esta secuencia casi siempre convergerá a un vector propio correspondiente al mayor valor propio. Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin embargo, hay métodos más populares, como la descomposición QR, que se basan en él

Valores propios de una matriz cualquiera

Si es complejo, entonces u es complejo.

Los valores propios de B = C"1AC son los mismos de A. Si x es el vector propio asociado a , entonces Cx es un vector propio de B asociado a .

DIAGONALIZACION DE MATRICES, POTENCIAS Y RAICES

Diagonalización de matrices, potencias y raíces de matrices

¿Qué es diagonalizar una matriz?

Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D (si se puede) tales que

A = P D P-1

La matriz P se llama matriz de paso.

Puede que esto, al principio, no parezca más simple de lo que ya era A directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para representar aplicaciones lineales, la expresión anterior puede verse como un cambio de base de la aplicación representada por A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicación lineal A tiene una forma muy simple (diagonal). Esto es útil, por ejemplo, para clasificar una aplicación lineal y estudiar sus propiedades. Las matrices se usan para representar otras cosas como cónicas, cuadricas o formas bilineales, y en estos casos también resulta útil esta forma de expresarlas.

La relación anterior entre las matrices A y D es importante y aparece en muchos contextos, así que tiene nombre propio:

Cuando dos matrices cuadradas A y B verifican que A = P B P-1 para cierta, matriz cuadrada P (invertible, claro) decimos que A y B son semejantes.

Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a una matriz diagonal. En estas prácticas sólo consideraremos como diagonalizables las matrices que sean semejantes a una matriz diagonal real. Entonces, más exactamente: una matriz es diagonalizable cuando es semejante a una matriz diagonal real.

¿Cuándo y cómo podemos diagonalizar una matriz?

Si conseguimos escribir una matriz A como A = P D P-1, entonces podemos poner también A P = P D. Si D es diagonal y nos fijamos en la columna i de esta última igualdad lo que tenemos es que A xi = li xi (donde xi es la columna i de A y li es el número en el lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta conocer los vectores a los que les pase algo así. Estos vectores también tienen nombre:

Si un número l y un vector no nulo x verifican la relación A x = l x diremos que l es un valor propio o autovalor de la matriz A y que x es un vector propio o autovector de A asociado al valor propio l.

Es fácil ver que diagonalizar una matriz A de tamaño n×n es lo mismo que encontrar n vectores propios linealmente independientes asociados a valores propios reales, ya que entonces podemos ponerlos por columnas y conseguir así la matriz P (puedes comprobar que entonces se cumple la relación que buscamos). Entonces, para diagonalizar una matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente independientes asociados a valores propios reales.

Sea
una matriz de orden
. Se dice que
es una matriz diagonal si
para
. Sea
una transformación lineal de un espacio
de dimensión finita
. Se dice que
es diagonalizable si existe una base
en
tal que
es una matriz diagonal. Una matriz
de orden
se dice que es diagonalizable si
es similar a una matriz diagonal. Teniendo en cuenta que matrices que representen la misma transformación lineal son similares, se tiene el siguiente resultado.

Proposición 3. Sea
una transformación lineal de un espacio
de dimensión finita
y sea
una base cualquiera de
. Entonces,
es diagonalizable si y sólo si
es diagonalizable.

En términos de vectores propios se tiene el siguiente criterio obvio de diagonalización.

Teorema 1. Sea
una transformación lineal de un espacio
de dimensión finita

es diagonalizable si y sólo si
tiene una base constituida por vectores propios.

Según la Proposición 1 y el Corolario 2 se tiene el siguiente corolario.

Corolario 3. Sea
una matriz cuadrada de orden
. Entonces,

a)
es diagonalizable si y sólo si
tiene
vectores propios L I


b) Si
tiene
valores propios diferentes, entonces
es diagonalizable.

El recíproco de la parte b) del corolario anterior no siempre se cumple: la matriz idéntica
es diagonal, sin embargo sus
valores propios coinciden y son iguales a
.

Proposición 4. Sea
una transformación lineal de un espacio
de dimensión finita
Sean
los valores propios diferentes para
,
, y
los subespacios propios correspondientes. Entonces, la suma
es directa. En consecuencia,




Demostración

Podemos probar ahora un criterio de diagonalización en términos del polinomio característico y de los espacios propios.

Teorema 2. Sea
una transformación lineal de un espacio
de dimensión finita
Sean
los valores propios diferentes para
,
, y
los subespacios propios correspondientes. Entonces, las siguientes condiciones son equivalentes:

a)
es diagonalizable.

b) El polinomio característico de
es de la forma




donde


c)


d)


Demostración

Ejercicio 1. Determinar si las siguientes matrices son diagonalizables. En caso afirmativo encontrar una matriz que diagonalice:




Ejercicio 2. Determinar los valores y vectores propios del operador derivación sobre el espacio
. ¿Es este operador diagonalizable?

Ejercicio 3. Sean
y
matrices cuadradas de orden
y
, respectivamente. Demuestre que el polinomio característico de la matriz




es


Ejercicio 4. Sea
una matriz de orden
y
un polinomio cualquiera. Demuestre que si
es diagonalizable, entonces
es diagonalizable.

Ejercicio 5. Sea
una matriz de orden
tal que
para cada
Demuestre que
es un valor propio de
.

Solución. Sea
un vector propio de la matriz
correspondiente al valor propio
. Entonces
, se obtiene entonces que para cada
se cumple
. Nótese que si todas las entradas del vector
son iguales entonces todas las ecuaciones anteriores se satisfacen. Entonces, siendo
cualquier elemento no nulo de
se cumple que para
se satisface
, y así
es un vector propio de
con valor propio
.

Método de Potencia.

Considere una matriz cuadrada A. Los valores y vectores propios satisfacen la ecuación




donde
es el i-ésimo valor propio y
es el i-ésimo vector propio. Si
es una matriz simétrica, algunos valores propios pueden ser complejos.

Supongamos que


,

el método de potencia se inicia con un vector propio inicial.




y las iteraciones subsecuentes son




con

Diagonalización de matrices simétricas, diagonalización ortogonaL

Diagonalización de matrices simétricas, diagonalización ortogonaL

Valores propios de matrices simétricas

Si D es la matriz diagonal cuyos elementos diagonales son los valores propios de A, entonces existe una matriz ortogonal Q tal que D = Q"1AQ = QtAQ.

Asimismo, existen n vectores propios de A que forman un conjunto ortonormal, y coinciden con las columnas de la matriz ortogonal Q.

Todos los valores propios de A son reales.

A es definida positiva si y sólo si todos los valores propios de A son positivos.

Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D (si se puede) tales que A = P D P-1 La matriz P se llama matriz de paso. Matriz diagonalizable: Una matriz n x n es diagonolazible si existe una matriz diagonal D tal que A es semejante a D. Observación: Si D es una matriz diagonal, entonces los valores propios son sus componentes en la diagonal. Si A es semejante a D, entonces Ay D tiene los mismos valores propios. Uniendo estos dos hechos se observa que si A es diagonaliizable, entonces A es semejante a una matriz diagonal cuyas componentes en la diagonal son los valores propios de A. El siguiente teorema establece cuando una matriz es diagonalizable. TEOREMA: Una matriz A de n x n es diagonalizable si y solo si tiene n vectores propios linealmente independientes. En tal caso, la matriz diagonal D semejante a A esta dada por

1 0 … 0

0 2 0 … 0

0 0 3 … 0

D = . . . .

0 0 0 … n

Donde 1, 2,….. , n son los valore propios de A. Si C es una matriz cuyas columnas son vectores propios linealmente independientes de A, entonces D = C-1AC Una matriz diremos que es ortogonal si su transpuesta coincide con su inversa.

P ortogonal <=> P-1 = Pt

Si P= (u1|u2|…|un) resulta que decir que P es ortogonal, es equivalente a decir que los vectores {u1, u2,…, un} son ortonormales (respecto al producto escalar habitual) Para las matrices reales y simétricas podemos dar una diagonalización donde la matriz de paso es ortogonal. Esto es lo que se entiende por diagonalización ortogonal.

Diagonalización ortogonal

Una matriz diremos que es ortogonal si su traspuesta coincide con su inversa.







Si
resulta que decir que
es ortogonal, es equivalente a decir que los vectores
son ortonormales (respecto al producto escalar habitual) Para las matrices reales y simétricas podemos dar una diagonalización donde la matriz de paso es ortogonal. Esto es lo que se entiende por diagonalización ortogonal

FORMAS CUADRATICAS

Formas cuadraticas

Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las siguientes condiciones equivalentes: a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x) = f(x,x). A f se le llama forma polar de . b) (lx) = l2x, . Además f(x,y) = ( (x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y con valores en K. A se la llama forma cuadrática asociada a f. Cuando se dice que la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas se las denomina métricas. Formas cuadráticas Una forma cuadrática en R3 es cualquier conjunto de puntos xT=(x1,x2,x3) que satisface una ecuación del tipo: xTAx=r, (1) donde A es una matriz simétrica de 3x3 a coeficientes reales y r es un número real. Vía una rotación del espacio dada por y=PTx donde yT=(y1,y2,y3) y P es una matriz unitaria de 3x3 a coeficientes reales, se puede expresar una forma cuadrática arbitraria con respecto a un vector y de manera que: yTDy=r, (2) donde D es una matriz diagonal de 3x3 a coeficientes reales. ¿Porqué siempre pueden encontrarse P y D con las propiedades requeridas? ¿Por qué P representa una rotación del espacio? Vía un re-escalamiento adicional dado por z=D'y donde zT=(z1,z2,z3) y D' es una matriz diagonal de 3x3 a coeficientes reales no-negativos, se puede expresar la última ecuación obtenida con respecto el vector z de manera que quede representada por una ecuación del tipo: zTJz=r, (3) donde J es una matriz diagonal de 3x3 que sólo puede contener en su diagonal valores que están en {"1,0,1}.

Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las siguientes condiciones equivalentes:

a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x)=f(x,x). A f se le llama forma polar de .

b) (lx) = l2x,
. Además f(x,y) = ( (x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y con valores en K. A se la llama forma cuadrática asociada a f.

Cuando
se dice que la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas se las denomina métricas

TEOREMA DE CAYLEY-HAMILTON

Teorema de Cayley-Hamilton

El teorema de Cayley"Hamilton establece que cada matriz cuadrada A satisface su ecuación característica: Si p( ) = det( " ) es el polinomio característico de A, entonces p(A) es la matriz nula.

Entre las diversas demostraciones del teorema hemos encontrado en R. Bellman (1965) una puramente algebraica, que es la que detallamos, con algún matiz, en nuestro trabajo.

El interés de la demostración radica en la utilidad que puede tener para nuestros alumnos de primer curso, la exposición de un desarrollo lógico basado en sus conocimientos básicos de cálculo matricial. También es inmediato y puede ser igualmente útil calcular, a partir del teorema, la inversa de A, cuando A sea no singular.

Sea p( ) = ( " 1) n n+ cn"1 n"1+ cn"2 n"2+ ... + c2 2 + c1 + c0 el polinomio característico de una matriz A de orden n. Entonces p(A) = ( " 1) n n + cn"1 n"1 + cn"2 An"2 + ... + c1 A + c0 I es la matriz nula. Es decir, cada matriz cuadrada A satisface su ecuación característica p(A) = 0.

Nota: A es una matriz de orden n con elementos en un cuerpo K; por tanto, los coeficientes ci del polinomio característico det( " ) pertenecen a dicho cuerpo K.

Demostración

Por las propiedades de las matrices se cumple que:

(A " I) Adj(A " I) t = p( )I

donde Adj(A " I) t es la matriz transpuesta de la matriz de los adjuntos de los elementos respectivos de la matriz A " I y p( ) = det( " ) es el polinomio característico de la matriz A.

Si denotamos B( ) = Adj(A " I)t, entonces B( ) es una matriz polinómica en , de grado n"1, que se puede escribir como:

B( ) = n"1 n"1+ n"2 n"2+ ... + 2 2 + 1 + 0

donde cada i es una matriz de orden n, con elementos en el cuerpo K. Entonces el producto (A " I) B( ) vale:

(A " I) B( ) = (A " I )( n"1 n"1+ n"2 n"2+ ... + 2 2 + 1 + 0) = " Bn"1 n + ( n"1 " n"2) n"1+( n"2 " n"3) n"2+ ... + ( 2 " 1) 2 + ( 1 " 0) + 0

Por otro lado p( ) I es la matriz polinómica:

p( ) I = ( " 1) n I n+ cn"1 I n"1+ cn"2 I n"2+ ... + c2 I 2 + c1 I + c0 I

Luego, igualando las matrices polinómicas, con elementos en el dominio K( ), (A " I) B( ) = p( ) I, se deduce que:

" n"1 = ( " 1) n I

n"1 " n"2 = cn"1 I

n"2 " n"3 = cn"2 I

.

.

.

AB2 " 1= c2 I

1 " 0= c1 I

0 = c0 I

Si vamos sustituyendo cada matriz Bi en la siguiente ecuación hasta llegar a la penúltima resulta:

" n"1 = ( " 1) n I

" n"2 = ( " 1) n A + cn"1 I

" n"3 = ( " 1) n A2 + cn"1 A + cn"2 I

" n"4 = ( " 1) n A3 + cn"1 A2 + cn"2 A + cn"3 I

ÛÜ

- B2= (-1)n An"3 + cn"1 An"4 + cn"2 An"5 + ...+ c4 A + c3 I

" 1= ( " 1) n An"2 + cn"1 An"3 + cn"2 An"4 + ...+ c3 A + c2 I

0 = ( " 1) n An"1 + cn"1 An"2 + cn"2 An"3 + ...+ c2 A + c1 I

Entonces sustituyendo 0 en la última ecuación 0 = c0 I se obtiene:

" 0 = ( " 1) n An + cn"1 An"1 + cn"2 An"2 + ...+ c2 A2 + c1 A = " c0 I

Por tanto, ( " 1) n An + cn"1 An"1 + cn"2 An"2 + ...+ c2 A2 + c1 A + c0 I = 0. Es decir, p(A) = 0 c.q.d.

APLICACIONES

Los valores y vectores característicos tienen muchas aplicaciones en la tanto en el ramo de las matemáticas como física, mencionaremos algunos temas en donde también se pueden emplear: Orbitales moleculares, Análisis factorial, Tensor de inercia, Tensor de tensión y Valores propios de un grafo, En ecuaciones lineales, matrices, etc.

Algunos de estos campos de aplicación son:

- Ecuaciones diferenciales

- Estabilidad de sistemas lineales

- Sistemas eléctricos (componentes simétricas)

- Polos y ceros de funciones transferencia

- Diagonalización de matrices

jueves, 25 de marzo de 2010

DEPENDENCIA E INDEPENDENCIA LINEAL

En álgebra lineal, un conjunto de vectores es linealmente independiente si ninguno de ellos puede ser escrito con una combinación lineal de los restantes. Por ejemplo, en R3, los vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) son linealmente independientes, mientras que (2, −1, 1), (1, 0, 1) y (3, −1, 2) no lo son, ya que el tercero es la suma de los dos primeros.

Sea {v1, v2,..., vn} un conjunto de vectores. Decimos que son linealmente dependientes si existen números 'a1, a2,..., an, no todos iguales a cero, tal que:


Nótese que el símbolo a la derecha del signo igual no es cero, sino que simboliza al vector nulo. El conjunto de vectores nulos forma la matriz nula.

Si tales números no existen, entonces los vectores son linealmente independientes.

Utilizando conceptos de espacios vectoriales podemos redefinir la independencia lineal así:

Un conjunto de vectores U de un espacio vectorial es linealmente independiente si ∀

Esta idea es importante porque los conjuntos de vectores que son linealmente indepedientes y generan a un espacio vectorial, forman una base para dicho espacio.

Entre las propiedades de los vectores linealmente dependientes e independientes encontramos:

Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores es combinación lineal de los demás.
Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo también lo es.
Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinación de los demás, escogiendo solamente unos cuantos, no podrán ser combinación de los otros.

Si un conjunto de vectores es linealmente dependiente también lo es todo conjunto que lo contenga.
Ya que un conjunto de vectores es linealmente dependiente si y solo si tiene algún vector que es combinación lineal de los demás, si metemos este conjunto de vectores en otro más grande, seguimos teniendo el vector que es combinación lineal de otros, por tanto, el conjunto más grande sigue siendo linealmente dependiente.

Significación geométrica [editar]Geométricamente, dos vectores son independientes si no tienen la misma dirección (con sentidos idénticos u opuestos). Esta definición supone que el vector nulo tiene todas las direcciones.

Tres vectores son independientes si y solo si no están contenidos en el mismo plano vectorial, o sea si ninguno de ellos es una combinación lineal de los otros dos (en cuyo caso estaría en el plano generado por estos vectores).

El espacio generado por un sistema de vectores es el conjunto de todas las combinaciones lineales de estos vectores. Es un espacio vectorial. El espacio generado por un vector no nulo es la recta vectorial dirigido por este vector. El espacio generado por dos vectores independientes es el plano que los contiene. Resulta fácil comprobar que el espacio generado por un sistema de vectores es el menor (por la inclusión) espacio vectorial que los contiene a todos. Se le denomina vect A, donde A es el sistema de vectores. Si n vectores son independientes, el espacio generado es de dimensión n (dimensión en el sentido usual: 0 para un punto, 1 para una recta, 2 para un plano...).

VECTORES

ESPACIOS VECTORIALES

Espacio euclidiano o Espacio vectorial:

Un espacio euclidiano es el conjunto de n-adas ordenadas, tambien conocido por espacio n-dimencional y de denota por Rn este es una sucesión de n números reales ejemplo (a1,a2,...,an) donde los vectores Rn se clasifican así:

R1 = espacio unidimensional, línea recta real.

R2 = espacio bidimensional, pares ordenados.

R3 = espacio tridimensional, terna ordenadas.

.......

Rn = espacio n-dimencional, n-adas ordenadas.

Operaciones Basicas con Vectores en R2:

Suma de vectores y multiplicación por un escalar:

Siendo X y Y dos vectores y H un escalar se dice que:

X + Y = (x1 , x2) + (y1 , y2) = (y1 , y2) + (x1 , x2) y la multiplicación por un escalar se define H(x1 , x2)=(Hx1 , Hx2).

Las propiedades que cumple la suma de vectores son las misma que cumplían las estructuras algebraica de una operación que son: la de cierre, la conmutativa, la asociativa, elemento neutro e identidad y la distributiva.

Las leyes que cumple la multiplicación por un escalar son:

La de cierre bajo la multiplicación Hx,

La distributiva (H+I)x = Hx + Ix ; H(x + y) = Hx + Hy,

La asociativa (HI)x = H(Ix),

y el elemento neutro de la multiplicación 1x = x.

Operaciones Básicas con Vectores en Rn:

Las operaciones básicas con vectores en Rn son las mismas que las operaciones básicas que vimos anteriormente, o sea, la suma de vectores y la multiplicación por un escalar la diferencia seria que en estos serian n-esimos elementos y n-esimos vectores ejemplo:

Para suma de vectores

X + Y = (x1 , x2, ... , xn) + (y1 , y2, ... , yn).

Para multiplicación de un vector por un escalar

H(x1 , x2, ... , xn) = (Hx1 , Hx2, ... , Hxn).

Las propiedades que cumplen son las mismas que vimos en operaciones básicas con vectores en R2.

El vector cero “0” es el vector neutro o identidad de la suma de vectores en Rn:

0 = (0, 0, 0, ..., 0n), este vector tiene como propiedad de que es único, es decir, U + 0 = 0,

0U = 0, a0 = 0, aU = 0 si a = 0 o U = 0, donde “U” es un vector y “a” un escalar.

Espacios Vectoriales:

Un espacio vectorial es aquel conjunto de vectores que cumple las propiedades o axiomas de la suma de vectores y la multiplicación por un escalar dichas propiedades vistas en espacios n-dimensiónales Rn o R2. Un espacio vectorial es un espacio no vacío.

Podríamos decir que un espacio vectorial es la abstracción de las propiedades de un espacio n-dimencional , debe tomarse en cuenta que en el espacio vectorial no se especifica operaciones ni vectores entonces se puede usar cualquier vector y cualquier operación se puede sustituir la suma de vectores y la multiplicación por un escalar, pero siempre cumpliendo todos las propiedades, siempre seria un espacio vectorial.

Un espacio vectorial cumple con cuatro partes que son: un conjunto de vectores, un conjunto de escalares, y dos operaciones. Estos forman un cuerpo que es igual a las estructuras algebraicas de dos operaciones (un cuerpo). Para comprobar que determinado conjunto es un espacio vectorial es preciso definir o especificar las propiedades de suma multiplicación por un escalar como vimos anteriormente tenemos que definir el elemento que actúa como cero (0) y el negado de cada elemento.

Cuerpo:


Es el conjunto de números y operaciones cualquiera que deben obedecer las diez propiedades algebraicas que mencionamos en operaciones básicas de espacios vectoriales.

Sub cuerpo:

Si se operan escalares en forma de sub cuerpo C y se operan bajo la suma y la multiplicación por un escalar estos escalares no deben salirse del sub espacio determinado y las operaciones de prueba son las mismas que se han mencionado con anterioridad.

Sub espacio vectorial:

Esto dice que si W es un sub conjunto del espacio vectorial V entonces este es un sub espacio de V. Si W es un espacio vectorial bajo las operaciones de suma y multiplicación por un escalar definidas en V.

Para que W sea un sub espacio de V debe cumplir las propiedades de cierre de la suma y la multiplicación por un escalar también debe cumplir la ley del elemento neutro bajo la suma, el inverso bajo la suma y el neutro bajo la multiplicación por un escalar.

Combinación Lineal:

Se denomina combinación lineal a u vector V en un espacio vectorial U u un cuerpo h.

Si los vectores v1, v2, v3, ..., vn en u si V puede expresarse como:

V = c1v1 + c2v2 + c3v3 +... + cnvn donde c son escalares del cuerpo h.

Envolvente Lineal:

Este es el conjunto de todas las combinaciones lineales semejantes denotado por Lin(v1, v2, ..., vn) y se denomina envolvente lineal de u1, u2, ...,un.

Siendo S un sub conjunto de un espacio vectorial V entonces Lin S es un sub conjunto de un espacio vectorial V y si W es un subconjunto de V que contiene a S, necesariamente Lin S es complemento de W.

Conjuntos Generadores:


Si todo vector es un espacio vectorial puede ser expresado como combinación lineal como lo vimos anteriormente entonces se dice que la combinación lineal es un conjunto generador de un espacio vectorial..

En otras palabras si u1, u2, ..., un generan u entonces u pertenecen a V si existen escalares c tal que:

V = c1u1 + c2v2 + ... + cnun entonces V es una combinación lineal de u1, u2, ..., u3 .

Espacio fila y Espacio Columna de una Matriz:

Si A es una matriz m x n en un cuerpo K cualquiera, las filas de A pueden ser vistas como vectores de Kn llamado espacio fila de U denotado por f - Lin A.

Así haciendo la matriz transpuesta esto quiere decir que si las columnas las hacemos vectores de Km estos generan un sub espacio de Km llamado espacio columna de A denotado c-Lin A.

Si hacemos operaciones elementales entre fila a A y obtenemos una matriz B podemos decir que B es que cada fila de B es una combinación lineal de cada fila de A por lo que el espacio fila de B esta contenido al espacio fila de A y así viceversa, o sea, si efectuamos operaciones entre fila a B obtenemos A y esto seria convención lineal de cada fila de B, esto cumple ciertos teoremas y propiedades:

Las matrices equivalentes por filas tienen el mismo espacio fila.

Dos matrices en forma canónica por fila tienen el mismo espacio fila si estos tienen las mismas filas no nulas.

Toda matriz es equivalente por fila a una matriz única en forma canónica por filas.

Conjuntos Generadores e Independencia Lineal:

Si todo vector puede expresarse como combinación lineal de vectores en un conjunto S entonces el conjunto S es un conjunto de un espacio vectorial.

Dependencia e Independencia Lineal:

Para que un vector tenga dependencia lineal este debe tener una solución no trivial esto quiere decir que la combinación lineal denotado así: c1v1 + c2v2 + c3v3 = 0 , ósea que tiene una solución única.

Para comprobar la independencia Lineal.

Sea S = {v1, v2, ..., vn } un conjunto de vectores en un espacio vectorial V entonces partiremos de la ecuación vectorial c1v1 + c2v2 + c3v3 = 0 (que es la misma que combinación lineal don de c son escalares) se escribe un sistema homogéneo de ecuaciones lineales en variable c1, c2, ..., ck . después se hace Gauss-Jordán a la matriz aumentada para diagonal izarla si la solución de la diagonalizacion tiene solamente solución trivial c1, c2, c3 entonces S es linealmente independiente.

Si un conjunto S={v1, v2, ..., v3}, k>=2 es linealmente dependiente si solo si por lo menos uno de los vectores vj puede expresarse como una combinación lineal de los demás vectores S.

Base y Dimension:

En un conjunto S={v1 ,v2, ..., vk} es un espacio vectorial V este se denomina Base si cumple que si es espacio vectorial tiene una base con un numero finito de vectores entonces V es de dimensión finita y en caso contrario es de dimensión infinita.

Base y Dependencia Lineal:

Si un conjunto finito S={ v1 , v2, ..., vn } es una base de un espacio vectorial V si todo conjunto que contiene mas de n vectores de V es linealmente dependiente.

Numero de Vectores de una Base:

Si un espacio vectorial V tiene una base con n vectores entonces toda base V tiene n vectores.

Dimensión de un Espacio Vectorial:

Si un espacio vectorial V tiene una base con n vectores entonces esa n es la dimensión de esa base y se denota dim(V) = n.

Teóricamente la dimensión se determina al hallar el conjunto de vectores linealmente independientes que genera el sub espacio, este conjunto es una base del sub-espacio y la dimensión del mismo es el numero de vectores que hay en la base.


Para ver que una base en un espacio n-dimensional:

Siendo V su espacio vectorial y n = n entonces S = { v1, v2,... ,vn } en un conjunto de vectores linealmente independientes en V, entonces S es una base de V.

Ejemplo: si S = { v1, v2, ..., vn } genera a V, entonces S es una base de V

Rango de una matriz y sistema de ecuaciones lineales:

Sea una matriz Am x n = entonces sus n-adas corresponden a las

Filas de la matriz, ejemplo: (a11, a12, ..., a1n), (a21, a22, ..., a2n), ..., (am1,am2, ..., amn) estas series son los vectores fila de A y los vectores columnas de A corresponden a las columnas de la matriz ejemplo: (a11, a21, ..., am1), (a12, a22, ..., am2), ..., (a1n, a2n, ..., amn).

El espacio fila y el espacio columna son sub-espacios de Rn generado por los vectores fila y espacio columna de A.

Veremos a continuación que los espacios fila y espacio columna comparten muchas propiedades veremos primero el espacio fila, considerando que dos matrices son equivalentes por fila si la segunda matriz se obtiene por operaciones elementales entre fila esta tienen el mismo espacio fila, también hay que considerar que la matriz no se modifica sus columnas por las operaciones elementales entre filas, pero si pueden modificar sus filas.

Si la matriz equivalente B esta en forma escalonada entonces esta constituye un conjunto independiente.

Y la base para el espacio fila de una matriz: si la matriz A es igual en fila a la matriz B entonces en esta ultima los vectores fila B son diferentes de cero esta forma una base para el espacio fila.

Si A es una matriz m x n entonces el espacio renglón y el espacio columna son iguales.

Para poder resolver la ecuación lineal utilizaremos la notación matricial Ax = B que se utiliza para representar ecuaciones lineales.

=

la solución de éste sistema nos permite ver el conjunto solución, esta solución se escribe como n-adas y se denomina: vectores solución para un sistema homogéneo se utiliza la notación matricial Ax = 0 es un espacio Rn esta solución se denomina espacio solución del sistema también se llama espacio nulo de a. La dimensión de este sistema se denomina nulidad de A.

Para la dimensión de un sistema homogéneo (Ax = 0) en una matriz A m x n y su rango r entonces la dimensión seria n-r (nulidad - rango) = n.

Un sistema homogéneo Ax = 0 es un sub-espacio y un sistema no homogéneo Ax = 0 es un sub-espacio y un sistema no homogéneo Ax = B donde B " 0 este no es sub-espacio ya que el vector cero no es solucion.

Si Xp es una solución particular del sistema homogéneo entonces todo el sistema se expresa como X = Xp + Xn donde Xh seria la solución del sistema homogéneo Ax = 0.

Para ver el numero de soluciones de las ecuaciones lineales se tomara en cuenta tres reglas:

Si rango (A) = rango [A B] = n entonces el sistema tiene solución única esto quiere decir si el rango de la solución de la matriz A es igual al del rango de la matriz aumentada en B es igual a n entonces tiene una única solución.

Si el rango (A) = rango [A B]
Si el rango (A) = rango [A B] entonces el sistema no tiene soluciones.

Para las ecuaciones lineales con matrices cuadradas: Si A es una matriz n x n cumple las siguientes condiciones:

A es invertible.

Ax = b si tiene una solución única para la matriz bn x 1.

Ax = 0 tiene solución trivial.

A es equivalente por renglones a 1n.

El determinante de A (A) " 0.

Rango (A) = n

Los n vectores fila de A son linealmente independientes.

Los n vectores columna de A son linealmente independientes.

Coordenadas y cambio de base:

Siendo B={ v1, v2, ..., vn} una base de un espacio vectorial y x un vector en V que representándose como combinación lineal ( x = c1v1 + c2v2 + ... + cnvn ) siendo los escalares c. Se denomina como coordenadas x con respecto B en el vector Rn denotado así xB = ( c1, c2, ..., cn ).

Cambio de base.


Partiendo de una base B a una base B' se tiene que hacer una multiplicación por una matriz p-1 y esta la obtenemos sacando la inversa de la base B esto seria P-1 y multiplicando P-1 por B obtenemos B' y viserversa.

Aplicación de los espacios vectoriales:

Secciones cónicas y rotación de ejes:


Toda cónica esta dada por ax2 + by2 + cxy + dx + cy + f = 0 donde c de xy = 0 cuando sus ejes son paralelos al plano. Si la ecuación tiene c en xy " 0 se necesita sacar x' y y'. El ángulo de rotaciones debe sacar con la formula Cot 2 = (a-c)/b rotando los polos en sentido antihorario en esta forma la base standard ya vista en temas anteriores exhortada formando un nueva base que es B'= { (Cos , Sen ), (-Sen , Cos )} esto para hallar coordenadas en el plano P(x, y) respecto en a'x'2 + b'y'2 + c'x'y' + d'x' + c'y' + f' = 0 rotando los ejes en sentido antihorario utilizando la formula anterior de angulos rotados y sabiendo que x = x'Cos - y'Sen y que y = x'Sen + y'Cos .


Ecuaciones diferenciales Lineales:

Una ecuación diferencial de orden n se denota yn + gn-1 (x) yn-1 + ... + g1 (x) y' + g0 (x) y = f(x) donde g1, g2, ..., gn dominios comunes. Si f(x) = 0 esta función se le denomina como función homogénea en caso contraria es una función no homogénea. Se denomina solución de la ecuación diferencial lineal si la solución satisface cuando “y” y sus n primeras derivadas se sustituyen en la ecuación.

Toda ecuación diferencial lineal homogénea de orden n tienen solucion linealmente independiente si {y1, y2, ..., yn } tienen solucion linealmente independiente entonces la solución seria : y = c1y1 + c2y2 + ... + cnyn esta es la solucion general donde c es un numero real.

Sea {y1, y2, ..., yn } un conjunto de funciones estas poseen n-1 derivadas en el intervalo I. El determinante w es el llamado wroskiano del conjunto de funciones dadas.

Para probar el que una ecuación diferencial es linealmente independiente se puede hacer por wroskiano. Este se hace si el wroskiano es diferente de cero (w " 0).

lunes, 22 de febrero de 2010

SUMA DE MATRICEZ


RESTA DE MATRICEZ


MULTIPLICACION DE MATRICEZ



MATRICES DE 3 x 3:




METODO DE ELIMINACION DE GAUSS

DADA LA ECUACION:

X+2Y+Z = 3
2X+5Y-Z =-4
3X-2Y-Z =2





SUMA, RESTA Y MULTIPLICACION DE MATRICEZ

SUMA , RESTA Y MULTIPLICACION DE MATRICEZ.


SUMA Y RESTA:
Sean A=[A y J] y b=[B y J] matrices de orden MXN
1.- la suma a+b es la matriz de mxn
A+B=[AiJ+BiJ].
2.-La diferencia A-B es la matriz de mxn
A-B=[AiJ-BiJ].

MULTIPLICACION DE MATRICEZ.
Sean A=[AiJ]una matriz mxn
B=[BiJ].
El producto AB=[CiJ] es la matriz de mxn donde:
CiJ=ai1b1j+ai2b2j+......airbrj.

SOLUCION DE MATRICES

ELIMINACION DE GAUSS.
el metodo se basa en reducir la matrizen una forma sencilla para poder resolver un sistema de ecuaciones .
para esto se debe de tener las siguientes propiedades.
1.-si un renglon no consta exclusivamente de ceros entones el primer diferente de cero en el renglon es 1.
2.-si ahi renglones que constan exclusivamente de 0 entonces estan agrupados en la parte inferior de la matriz.
3.-si losa renglones J y J+1 son dos renglones sucesivos cualesquiera que no constan exclusivamente de cerps ,entonces,el primer numero diferente de cero en el renglon J+1 aparece a la derecha del primer numero diferente de cero en el renglon J.
4.-todas las columnas que contienen el primer elemento diferente de cero de algun renglon tiene ceros en toda las posiciones restantes.

si una matriz cumple con estas propiedades se dice que esta en forma escalonada.

CARL FRIEDRICH GAUSS: se dice llamar el principe de los matematicos hizo importantes contribuciones a la teoria de los numeros , a la teoria de funciones , a la probabilidad y estadistica;descubrio un metodo para calcular las orbitas de los asteroides;fue el autor de descubrimientos basicos en la teoria del electromagnetismo y ademas invento un teelegrafo.

NUMEROS COMPLEJOS

NUMERO COMPLEJOS


Un numero complejo es cualquier numero que puede escribirce
en forma a+bi donde a y b son numero reales .
El numnero real a es la parte real y el numero real b es el numero imaginario .

operaciones con numeros complejos.
suma y resta con numeros complejos:
si a+bi t c+di son dos numeros complejos ,entonces:
suma:(a+bi)(c+di)=(a+c)(b+d)i.
resta:(a+bi)-(c+di)=(a-c)+(b-d)i.
ejemplos:
a)(7-3i)+(4-5i)=(7+4)+(-3+5)i=11+2i
b)(2-i)-(8+3i)=(2-8)-(-1-3)i=-6-4i

Multiplicacion de numeros complejos:
(2+3i)(5-i)=[(2)(5)-(3)(-1)]+[(2)(-1)+(3)(5)]i
(a+bi)(c+di)=ac+adi+bci+bdi
=(ac-bd)+(ad+bc)i.

Division de numeros complejos:
z1/z2=a+bi/c+di=a+bi/c+di*c-di/c-di
ejemplo:
5+i/2-3i= 5+i/2-3i*2+3i/2+3i=(5+i)(2+3i)/(2-3i)(2-3i)
=10+15i+2i+3ii/2*2+3*3= 7+17i/13=7/13+17i/13.


1. Método de sustitución.
Consiste en despejar en una de las ecuaciones una incógnita. Posteriormente se sustituye su valor en la otra y se calcula. Finalmente se vuelve a la ecuación despajada para hallar el valor de la incógnita que queda.

2.Método de igualación.
Se despeja la misma variable en las dos ecuaciones. Se igualan sus valores y se obtiene el valor de una variable, luego se sustituye en una de las ecuaciones despejadas y se halla el valor de la otra.

3.Método de reducción.
Consiste en multiplicar una o las dos ecuaciones por números convenientes de tal forma que al "sumar" luego las ecuaciones se vaya una de las variables. Así se puede obtener el valor de la otra. Una vez obtenido,volvemos a una de las ecuaciones originales y en ella calculamos la variable que nos queda.

lunes, 1 de febrero de 2010

FERNANDEZ NORZAGARAY EDUARDO

MATEMATICAS IV
Horario: Lunes - viernes (16:00-1700)
( Horario de asesorias: Lunes-Viernes a las 18:00-19:00 hrs )
OBJETIVO.
Adquirir los conocimientos del algebra lineal, aplicando herramientas para la solucion de problemas practico del area de ingenieria en que se imparten esta materia.
CRITERIO DE EVALUACION.
Evaluacion continua...
*Puntualidad .- Obligatoria
PRACTICAS.
Graficacion y resolucion de problemas utilizando sofware matematicos
TEMARIO.
Unidad 1.- Numeros complejos
Unidad 2.- Sistema de ecuaciones lineales
Unidad 3.- Matrizes y Determinantes
Unidad 4.- Espacios Vectoriales
Unidad 5.- Transformaciones Lineales
Unidad 6.- Valores y Vectores Caracteristicos
BIBLIOGRAFIA.
-Matematicas Universitarias Introductorias con nivelador
MyMATHLAB
(Demana.Blitzer)
-Introduccion al Algebra Lineal
HOWARD ANION
-Introduccion al Algebra Lineal
LARZON-EDWARDS