Fundamentos Esenciales de Álgebra Lineal y Ecuaciones Diferenciales
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 6,17 KB
Fundamentos de Álgebra Lineal
Teorema de Rouché-Frobenius (Existencia y Unicidad de Soluciones)
Si se considera el sistema A x = b y (A|b) es su matriz ampliada, entonces:
- 1. ρ(A|b) > ρ(A) ⇔ el sistema es incompatible.
- 2. ρ(A|b) = ρ(A) ⇔ el sistema es compatible.
- Si además, ρ(A) = n = número de incógnitas ⇒ el sistema tiene solución única.
- Si ρ(A) < n = número de incógnitas ⇒ el sistema tiene infinitas soluciones, que se pueden escribir en función de n − ρ(A) parámetros.
Dependencia e Independencia Lineal de Vectores
Sea E un espacio vectorial sobre K y sea A un subconjunto no vacío de vectores de E.
Definición de Dependencia Lineal (LD)
Diremos que A es linealmente dependiente (LD) si existen vectores x1, x2, ..., xk ∈ A (distintos) y existen escalares α1, α2, ..., αk ∈ K no todos nulos tales que:
α1x1 + α2x2 + ··· + αkxk = 0
Esto significa que al menos un vector del conjunto {x1, x2, ..., xk} puede ser expresado como combinación lineal de los otros. Veamos esta afirmación con más detalle. Supongamos que αi ≠ 0, entonces:
-αixi = α1x1 + ... + αi-1xi-1 + αi+1xi+1 + ... + αkxk
Si αi ≠ 0, entonces:
xi = -( α1/αi )x1 - ... - ( αi-1/αi )xi-1 - ( αi+1/αi )xi+1 - ... - ( αk/αi )xk
Observemos que si A es LD, el vector nulo puede expresarse de diferentes formas como combinación lineal de ciertos elementos de A.
Definición de Independencia Lineal (LI)
Diremos que A es linealmente independiente (LI) si no es LD, es decir, si siempre que encontremos α1x1 + α2x2 + ··· + αkxk = 0 con α1, ..., αk ∈ K y x1, ..., xk ∈ A (distintos), entonces NECESARIAMENTE:
α1 = 0, α2 = 0, ..., αk = 0.
Ahora observamos que existe una única forma de expresar el vector nulo como una combinación lineal finita de elementos de A.
Teorema de Existencia de Base
Sea E un espacio vectorial sobre K no nulo finitamente generado. Si A = {x1, ..., xn} es un sistema generador de E, entonces ∃ B ⊆ A tal que B es base de E.
Aplicaciones Lineales
Sean E y F dos espacios vectoriales sobre K y sea T : E → F una aplicación.
Definición de Aplicación Lineal
Diremos que T es una aplicación lineal si verifica:
- (a) T(u + v) = T(u) + T(v), ∀u, v ∈ E.
- (b) T(αu) = αT(u), ∀α ∈ K, ∀u ∈ E.
Núcleo de una Aplicación Lineal
Se llama núcleo de T al conjunto de vectores de E que tienen imagen nula:
N(T) = { x ∈ E : T(x) = 0 }.
Imagen de una Aplicación Lineal
Se llama imagen de T al conjunto de vectores de F que son imagen mediante T de algún vector de E:
Im(T) = { y ∈ F : ∃x ∈ E tal que T(x) = y } o, equivalentemente,
Im(T) = T(E) = { T(x) : x ∈ E }
Teorema de las Dimensiones
Si T : E → F es una aplicación lineal y E y F son espacios vectoriales sobre K de dimensión finita, entonces:
dimK E = dimK N(T) + dimK Im(T).
Polinomio Característico y Valores Propios
Llamaremos polinomio característico de A, y lo denotaremos por dA(λ), al polinomio en λ que se obtiene al calcular el determinante de la matriz:
dA(λ) = det(A − λIn×n)
Si A es una matriz n × n con entradas en K, entonces dA(λ) es un polinomio de grado n con coeficientes en K cuyo coeficiente director es (−1)n. Por tanto, los valores propios de una matriz son los ceros de su polinomio característico que pertenezcan a K.
Propiedades de Matrices Hermíticas
Sea A ∈ Mn×n(C). Si A es una matriz hermítica, entonces:
- (i) Todos los valores propios de A son reales.
- (ii) Los vectores propios asociados a valores propios distintos son ortogonales.
- (iii) Existe una base ortonormal de Cn formada por vectores propios de A, o equivalentemente, A es diagonalizable en C con respecto a una base ortonormal.
Propiedades de Matrices Simétricas
Sea A ∈ Mn×n(R). Si A es una matriz simétrica, entonces:
- (i) A tiene n valores propios (no necesariamente distintos).
- (ii) Los vectores propios asociados a valores propios distintos son ortogonales.
- (iii) Existe una base ortonormal de Rn formada por vectores propios de A, o equivalentemente, A es diagonalizable en R con respecto a una base ortonormal.
Ecuaciones Diferenciales
Teorema de Existencia y Unicidad para Sistemas de Ecuaciones Diferenciales
Si x0 ∈ I, y0 ∈ Rn y A ∈ Mn×n(C), entonces el sistema de ecuaciones diferenciales y' = Ay tiene una única solución que cumple las condiciones iniciales y(x0) = y0.
En primer lugar, estudiaremos muy brevemente la estructura algebraica del conjunto de soluciones y, a continuación, aprenderemos a resolver sistemas de ecuaciones diferenciales lineales homogéneos con coeficientes constantes.