Fundamentos Esenciales de Álgebra Lineal y Ecuaciones Diferenciales

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 6,17 KB

Fundamentos de Álgebra Lineal

Teorema de Rouché-Frobenius (Existencia y Unicidad de Soluciones)

Si se considera el sistema A x = b y (A|b) es su matriz ampliada, entonces:

  • 1. ρ(A|b) > ρ(A) el sistema es incompatible.
  • 2. ρ(A|b) = ρ(A) el sistema es compatible.
    • Si además, ρ(A) = n = número de incógnitas el sistema tiene solución única.
    • Si ρ(A) < n = número de incógnitas el sistema tiene infinitas soluciones, que se pueden escribir en función de n − ρ(A) parámetros.

Dependencia e Independencia Lineal de Vectores

Sea E un espacio vectorial sobre K y sea A un subconjunto no vacío de vectores de E.

Definición de Dependencia Lineal (LD)

Diremos que A es linealmente dependiente (LD) si existen vectores x1, x2, ..., xk ∈ A (distintos) y existen escalares α1, α2, ..., αk ∈ K no todos nulos tales que:

α1x1 + α2x2 + ··· + αkxk = 0

Esto significa que al menos un vector del conjunto {x1, x2, ..., xk} puede ser expresado como combinación lineal de los otros. Veamos esta afirmación con más detalle. Supongamos que αi ≠ 0, entonces:

ixi = α1x1 + ... + αi-1xi-1 + αi+1xi+1 + ... + αkxk

Si αi ≠ 0, entonces:

xi = -( α1i )x1 - ... - ( αi-1i )xi-1 - ( αi+1i )xi+1 - ... - ( αki )xk

Observemos que si A es LD, el vector nulo puede expresarse de diferentes formas como combinación lineal de ciertos elementos de A.

Definición de Independencia Lineal (LI)

Diremos que A es linealmente independiente (LI) si no es LD, es decir, si siempre que encontremos α1x1 + α2x2 + ··· + αkxk = 0 con α1, ..., αk ∈ K y x1, ..., xk ∈ A (distintos), entonces NECESARIAMENTE:

α1 = 0, α2 = 0, ..., αk = 0.

Ahora observamos que existe una única forma de expresar el vector nulo como una combinación lineal finita de elementos de A.

Teorema de Existencia de Base

Sea E un espacio vectorial sobre K no nulo finitamente generado. Si A = {x1, ..., xn} es un sistema generador de E, entonces ∃ B &subseteq; A tal que B es base de E.

Aplicaciones Lineales

Sean E y F dos espacios vectoriales sobre K y sea T : E → F una aplicación.

Definición de Aplicación Lineal

Diremos que T es una aplicación lineal si verifica:

  • (a) T(u + v) = T(u) + T(v), ∀u, v ∈ E.
  • (b) T(αu) = αT(u), ∀α ∈ K, ∀u ∈ E.

Núcleo de una Aplicación Lineal

Se llama núcleo de T al conjunto de vectores de E que tienen imagen nula:

N(T) = { x ∈ E : T(x) = 0 }.

Imagen de una Aplicación Lineal

Se llama imagen de T al conjunto de vectores de F que son imagen mediante T de algún vector de E:

Im(T) = { y ∈ F : ∃x ∈ E tal que T(x) = y } o, equivalentemente,

Im(T) = T(E) = { T(x) : x ∈ E }

Teorema de las Dimensiones

Si T : E → F es una aplicación lineal y E y F son espacios vectoriales sobre K de dimensión finita, entonces:

dimK E = dimK N(T) + dimK Im(T).

Polinomio Característico y Valores Propios

Llamaremos polinomio característico de A, y lo denotaremos por dA(λ), al polinomio en λ que se obtiene al calcular el determinante de la matriz:

dA(λ) = det(A − λIn×n)

Si A es una matriz n × n con entradas en K, entonces dA(λ) es un polinomio de grado n con coeficientes en K cuyo coeficiente director es (−1)n. Por tanto, los valores propios de una matriz son los ceros de su polinomio característico que pertenezcan a K.

Propiedades de Matrices Hermíticas

Sea A ∈ Mn×n(C). Si A es una matriz hermítica, entonces:

  • (i) Todos los valores propios de A son reales.
  • (ii) Los vectores propios asociados a valores propios distintos son ortogonales.
  • (iii) Existe una base ortonormal de Cn formada por vectores propios de A, o equivalentemente, A es diagonalizable en C con respecto a una base ortonormal.

Propiedades de Matrices Simétricas

Sea A ∈ Mn×n(R). Si A es una matriz simétrica, entonces:

  • (i) A tiene n valores propios (no necesariamente distintos).
  • (ii) Los vectores propios asociados a valores propios distintos son ortogonales.
  • (iii) Existe una base ortonormal de Rn formada por vectores propios de A, o equivalentemente, A es diagonalizable en R con respecto a una base ortonormal.

Ecuaciones Diferenciales

Teorema de Existencia y Unicidad para Sistemas de Ecuaciones Diferenciales

Si x0 ∈ I, y0 ∈ Rn y A ∈ Mn×n(C), entonces el sistema de ecuaciones diferenciales y' = Ay tiene una única solución que cumple las condiciones iniciales y(x0) = y0.

En primer lugar, estudiaremos muy brevemente la estructura algebraica del conjunto de soluciones y, a continuación, aprenderemos a resolver sistemas de ecuaciones diferenciales lineales homogéneos con coeficientes constantes.

Entradas relacionadas: