Conceptos Fundamentales de Álgebra Lineal: Definiciones y Demostraciones Clave
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 11,84 KB
Conceptos Fundamentales de Álgebra Lineal
Imagen de una Aplicación Lineal (Im(f))
El conjunto imagen de una aplicación lineal f: E → E' es el conjunto de todos los vectores e' ∈ E' para los cuales existe al menos un vector e ∈ E tal que f(e) = e'.
Núcleo de una Aplicación Lineal (Ker(f))
El núcleo de una aplicación lineal f: E → E' es el conjunto de todos los vectores e ∈ E tales que f(e) = 0E' (el vector nulo de E').
Aplicación Lineal Inyectiva
Una aplicación lineal f: E → E' es inyectiva si:
- Para todo e, e' ∈ E, si e ≠ e', entonces f(e) ≠ f(e').
- O, equivalentemente, si f(e) = f(e'), entonces e = e'.
Una condición necesaria para la inyectividad es que dim(E) ≤ dim(E').
Además, f es inyectiva si y solo si su núcleo es el subespacio trivial: Ker(f) = {0E}.
Aplicación Lineal Epiyectiva (Sobreyectiva)
Una aplicación lineal f: E → E' es epiyectiva (o sobreyectiva) si su imagen coincide con el espacio de llegada: Im(f) = E'.
Una condición necesaria para la epiyectividad es que dim(E) ≥ dim(E').
Matrices Equivalentes
Sean A y A' dos matrices de orden m x n con coeficientes en un cuerpo K. Se dice que A y A' son equivalentes si están asociadas a la misma aplicación lineal f: E → E', posiblemente en diferentes bases, para ciertos K-espacios vectoriales E y E' de dimensiones n y m, respectivamente.
Matriz Asociada a una Aplicación Lineal
Sea f: E → E' una aplicación lineal entre K-espacios vectoriales de dimensión finita, con dim(E) = n y dim(E') = m. La matriz asociada a f (respecto a bases dadas) es la representación matricial de dicha transformación.
Aplicación Lineal
Una aplicación f: E → E' entre dos K-espacios vectoriales es una aplicación lineal si cumple las siguientes propiedades:
- Aditividad: f(e₁ + e₂) = f(e₁) + f(e₂) para todo e₁, e₂ ∈ E.
- Homogeneidad: f(αe) = αf(e) para todo e ∈ E y todo escalar α ∈ K.
Estas dos propiedades se pueden combinar en una sola: f(α₁e₁ + α₂e₂) = α₁f(e₁) + α₂f(e₂) para cualesquiera e₁, e₂ ∈ E y escalares α₁, α₂ ∈ K (o ℝ si el cuerpo es el de los números reales).
Polinomio Característico
El polinomio característico de una matriz cuadrada A de orden n se define como PA(x) = det(A - xId), donde Id es la matriz identidad de orden n y x es una variable.
Demostración de la Invariancia del Polinomio Característico bajo Semejanza
Si A y A' son matrices semejantes, es decir, existe una matriz invertible Q tal que A = Q⁻¹A'Q, entonces sus polinomios característicos son iguales:
PA(x) = det(A - xId)
= det(Q⁻¹A'Q - xId)
= det(Q⁻¹A'Q - xQ⁻¹Q)
= det(Q⁻¹(A' - xId)Q)
= det(Q⁻¹)det(A' - xId)det(Q)
= (1/det(Q))det(A' - xId)det(Q)
= det(A' - xId)
= PA'(x)
Esto demuestra que matrices semejantes tienen el mismo polinomio característico.
Propiedad de las Bases: Un Conjunto Generador Mínimo
Demostración: Si se elimina un vector de una base, el conjunto resultante deja de ser un sistema generador.
Sea B = {e₁, e₂, ..., en} una base de un espacio vectorial E de dimensión n. Por definición, B es un sistema generador de E y sus vectores son linealmente independientes.
Consideremos el conjunto B' = B \ {er}, es decir, B' = {e₁, ..., er-1, er+1, ..., en}, donde er es un vector arbitrario de la base B.
Demostración por contradicción:
Supongamos que B' sigue siendo un sistema generador de E. Si B' es un sistema generador, entonces cualquier vector de E puede escribirse como combinación lineal de los vectores de B'. En particular, el vector er (que hemos quitado) debería poder escribirse como combinación lineal de los vectores restantes:
er = α₁e₁ + ... + αr-1er-1 + αr+1er+1 + ... + αnen
Reorganizando esta ecuación, obtenemos:
α₁e₁ + ... + αr-1er-1 - 1er + αr+1er+1 + ... + αnen = 0E
Esta ecuación implica que los vectores del conjunto original B = {e₁, ..., en} son linealmente dependientes, ya que al menos un coeficiente (el de er, que es -1) es no nulo. Esto contradice la definición de base, que establece que los vectores de una base deben ser linealmente independientes.
Por lo tanto, nuestra suposición inicial de que B' es un sistema generador debe ser falsa. Concluimos que si se elimina un vector de una base, el conjunto resultante deja de ser un sistema generador del espacio vectorial.
Propiedad de las Bases: Un Conjunto Linealmente Independiente Máximo
Demostración: Si se añade un vector a una base, el conjunto resultante deja de ser linealmente independiente.
Sea B = {e₁, ..., en} una base de un espacio vectorial E de dimensión n. Por definición, B es un conjunto linealmente independiente y un sistema generador de E.
Consideremos un vector en+1 ∈ E que no pertenece a la base B. Formamos el nuevo conjunto B'' = {e₁, ..., en, en+1}.
Demostración:
Dado que B = {e₁, ..., en} es un sistema generador de E, cualquier vector en E puede expresarse como una combinación lineal única de los vectores de B. En particular, el vector en+1 puede escribirse como:
en+1 = α₁e₁ + α₂e₂ + ... + αnen
para ciertos escalares α₁, ..., αn. Reorganizando esta ecuación, obtenemos:
α₁e₁ + α₂e₂ + ... + αnen - 1en+1 = 0E
Esta ecuación es una combinación lineal de los vectores de B'' que es igual al vector nulo, y al menos uno de los coeficientes (el de en+1, que es -1) es no nulo. Por lo tanto, el conjunto B'' = {e₁, ..., en, en+1} es linealmente dependiente.
Esto demuestra que una base es un conjunto linealmente independiente máximo; es decir, si se añade cualquier otro vector del espacio a una base, el conjunto resultante deja de ser linealmente independiente.
Valor Propio (Autovalor)
Un escalar λ (lambda) es un valor propio (o autovalor) de una aplicación lineal f: E → E (o de una matriz cuadrada A) si existe un vector e ∈ E no nulo tal que f(e) = λe (o Ae = λe).
Vector Propio (Autovector)
Si λ es un valor propio de una aplicación lineal f: E → E (o de una matriz A), los vectores e ∈ E no nulos que satisfacen la condición f(e) = λe (o Ae = λe) se denominan vectores propios (o autovectores) asociados al valor propio λ.
Valores Propios y Vectores Propios de una Matriz y su Transpuesta
¿Una matriz y su transpuesta tienen los mismos valores propios?
Sí, una matriz A y su transpuesta At tienen los mismos valores propios. Esto se debe a que tienen el mismo polinomio característico:
PA(x) = det(A - xId)
Sabemos que el determinante de una matriz es igual al determinante de su transpuesta: det(M) = det(Mt).
Por lo tanto:
PA(x) = det(A - xId) = det((A - xId)t) = det(At - (xId)t) = det(At - xId)
= PAt(x)
Dado que los valores propios son las raíces del polinomio característico, si los polinomios son idénticos, sus raíces (los valores propios) también lo serán.
¿Una matriz y su transpuesta tienen los mismos vectores propios?
No necesariamente. Aunque una matriz y su transpuesta comparten los mismos valores propios, sus vectores propios asociados a un mismo valor propio pueden ser diferentes.
Si e es un vector propio de A asociado al valor propio λ, entonces Ae = λe. Para que e sea también un vector propio de At asociado a λ, debería cumplirse que Ate = λe. Esta condición no se cumple en general.
Propiedades de Valores y Vectores Propios
Definición Equivalente de Valor Propio
Sea f: E → E un endomorfismo (aplicación lineal de un espacio en sí mismo). Un escalar λ es un valor propio de f si y solo si existe un vector e ∈ E no nulo tal que f(e) = λe.
Esta condición es equivalente a:
f(e) - λe = 0E
(f - λId)(e) = 0E
Donde Id es la aplicación identidad en E. Esto significa que e pertenece al núcleo de la aplicación (f - λId), es decir, e ∈ Ker(f - λId).
Un vector propio no puede estar asociado a dos valores propios diferentes
Sea f: E → E un endomorfismo. Un vector e ∈ E no nulo no puede ser un vector propio asociado a dos valores propios diferentes.
Demostración por contradicción:
Supongamos que un vector e ≠ 0E es un vector propio asociado a dos valores propios distintos, λ y μ. Esto significa que:
- f(e) = λe
- f(e) = μe
Igualando ambas expresiones, obtenemos:
λe = μe
λe - μe = 0E
(λ - μ)e = 0E
Dado que hemos supuesto que e ≠ 0E, para que la ecuación sea válida, debe cumplirse que (λ - μ) = 0, lo que implica λ = μ.
Esto contradice nuestra suposición inicial de que λ y μ eran valores propios diferentes. Por lo tanto, un vector propio no nulo solo puede estar asociado a un único valor propio.