Fundamentos de Álgebra Lineal: Transformaciones, Núcleo, Imagen y Vectores Propios
Enviado por Chuletator online y clasificado en Física
Escrito el en
español con un tamaño de 6,37 KB
Definición de Transformación Lineal
Diremos que una función $T: \mathbb{R}^n \to \mathbb{R}^m$ es una transformación lineal (TL) de $\mathbb{R}^n$ en $\mathbb{R}^m$ si, y solo si, verifica las siguientes condiciones:
- (i) Aditividad: $T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v})$, $\forall \mathbf{u}, \mathbf{v} \in \mathbb{R}^n$.
- (ii) Homogeneidad: $T(\alpha\mathbf{u}) = \alpha T(\mathbf{u})$, $\forall \alpha \in \mathbb{R}$, $\forall \mathbf{u} \in \mathbb{R}^n$.
Propiedades de las Transformaciones Lineales
Núcleo e Imagen
Sea $T: \mathbb{R}^n \to \mathbb{R}^m$ una transformación lineal.
Definición del Núcleo (Espacio Nulo)
Llamaremos núcleo de $T$, denotado $N(T)$ o $Ker(T)$, al conjunto de vectores en el dominio que son mapeados al vector cero del codominio:
$$N(T) = \{\mathbf{v} \in \mathbb{R}^n: T(\mathbf{v}) = \mathbf{0}\}$$
Teorema Fundamental sobre Núcleo e Imagen
Sea $T: \mathbb{R}^n \to \mathbb{R}^m$ una transformación lineal (TL). Entonces:
(A) $N(T)$ es un subespacio vectorial de $\mathbb{R}^n$ (Dominio).
(B) $Im(T)$ es un subespacio vectorial de $\mathbb{R}^m$ (Codominio).
Demostración (A): $N(T)$ es Subespacio Vectorial
Veamos que se verifican las condiciones de subespacio:
- Vector nulo: $\mathbf{0} \in N(T)$, pues $T(\mathbf{0}) = \mathbf{0}$.
- Cerradura bajo la suma: Si $\mathbf{v}_1 \in N(T)$ y $\mathbf{v}_2 \in N(T)$, queremos probar que $\mathbf{v}_1 + \mathbf{v}_2 \in N(T)$.
En efecto, $T(\mathbf{v}_1 + \mathbf{v}_2) = T(\mathbf{v}_1) + T(\mathbf{v}_2)$. Como $\mathbf{v}_i \in N(T)$, entonces $T(\mathbf{v}_i) = \mathbf{0}$ para $i=1, 2$. Por lo tanto, $T(\mathbf{v}_1 + \mathbf{v}_2) = \mathbf{0} + \mathbf{0} = \mathbf{0}$. Concluimos que $\mathbf{v}_1 + \mathbf{v}_2 \in N(T)$.
- Cerradura bajo el producto escalar: Si $\mathbf{v} \in N(T)$ y $\alpha \in \mathbb{R}$, queremos probar que $\alpha\mathbf{v} \in N(T)$.
En efecto, $T(\alpha\mathbf{v}) = \alpha T(\mathbf{v})$. Como $\mathbf{v} \in N(T)$, entonces $T(\mathbf{v}) = \mathbf{0}$. Por lo tanto, $T(\alpha\mathbf{v}) = \alpha\mathbf{0} = \mathbf{0}$. Concluimos que $\alpha\mathbf{v} \in N(T)$.
De (1), (2) y (3) concluimos que $N(T)$ es un subespacio vectorial de $\mathbb{R}^n$.
Demostración (B): $Im(T)$ es Subespacio Vectorial
La Imagen de $T$, $Im(T)$, es el conjunto de todos los vectores $\mathbf{w} \in \mathbb{R}^m$ tales que $\mathbf{w} = T(\mathbf{v})$ para algún $\mathbf{v} \in \mathbb{R}^n$. Verificamos las condiciones de subespacio:
- Vector nulo: $\mathbf{0} \in Im(T)$, pues $\mathbf{0} = T(\mathbf{0})$.
- Cerradura bajo la suma: Si $\mathbf{w}_1 \in Im(T)$ y $\mathbf{w}_2 \in Im(T)$, queremos probar que $\mathbf{w}_1 + \mathbf{w}_2 \in Im(T)$.
Como $\mathbf{w}_1 \in Im(T)$ y $\mathbf{w}_2 \in Im(T)$, existen $\mathbf{v}_1, \mathbf{v}_2 \in \mathbb{R}^n$ tales que $\mathbf{w}_1 = T(\mathbf{v}_1)$ y $\mathbf{w}_2 = T(\mathbf{v}_2)$. Por la aditividad de $T$: $\mathbf{w}_1 + \mathbf{w}_2 = T(\mathbf{v}_1) + T(\mathbf{v}_2) = T(\mathbf{v}_1 + \mathbf{v}_2)$. Dado que $\mathbf{v}_1 + \mathbf{v}_2 \in \mathbb{R}^n$, esto implica que $\mathbf{w}_1 + \mathbf{w}_2 \in Im(T)$.
- Cerradura bajo el producto escalar: Si $\mathbf{w} \in Im(T)$ y $\alpha \in \mathbb{R}$, queremos probar que $\alpha\mathbf{w} \in Im(T)$.
Como $\mathbf{w} \in Im(T)$, existe $\mathbf{v} \in \mathbb{R}^n$ tal que $\mathbf{w} = T(\mathbf{v})$. Por la homogeneidad de $T$: $\alpha\mathbf{w} = \alpha T(\mathbf{v}) = T(\alpha\mathbf{v})$. Dado que $\alpha\mathbf{v} \in \mathbb{R}^n$, esto implica que $\alpha\mathbf{w} \in Im(T)$.
De (1), (2) y (3) concluimos que $Im(T)$ es un subespacio vectorial de $\mathbb{R}^m$.
Conceptos Fundamentales de Espacios Vectoriales
Definición de Subespacio Vectorial
Un conjunto $S$ es un subespacio vectorial de $\mathbb{R}^n$ cuando se cumplen las siguientes condiciones:
- $S \subset \mathbb{R}^n$ (S es un subconjunto de $\mathbb{R}^n$).
- El vector nulo: $\mathbf{0} \in S$ ($\mathbf{0}$ es el vector nulo de $\mathbb{R}^n$).
- Cerradura bajo la suma (Aditividad): Cualesquiera sean $\mathbf{v}, \mathbf{w} \in S$, se cumple que $\mathbf{v} + \mathbf{w} \in S$.
- Cerradura bajo el producto escalar (Homogeneidad): Cualquiera sea $\alpha \in \mathbb{R}$ y cualquiera sea $\mathbf{v} \in S$, se cumple que $\alpha\mathbf{v} \in S$.
Vector Propio y Valor Propio
Si $A$ es una matriz $n \times n$, decimos que un vector no nulo $\mathbf{u} \in \mathbb{R}^n$ es un vector propio de $A$ cuando existe un número $\lambda \in \mathbb{R}$, llamado valor propio asociado a $\mathbf{u}$, de modo que:
$$A\mathbf{u} = \lambda\mathbf{u}$$
Dependencia e Independencia Lineal
Sea $U = \{\mathbf{u}_1, \mathbf{u}_2, \dots, \mathbf{u}_k\} \subset \mathbb{R}^n$ un conjunto de vectores.
Dependencia Lineal (L.D.)
Decimos que $U$ es linealmente dependiente (L.D.) cuando existen escalares $\alpha_1, \alpha_2, \dots, \alpha_k \in \mathbb{R}$, no todos iguales a cero, de modo que su combinación lineal es el vector nulo:
$$\alpha_1\mathbf{u}_1 + \alpha_2\mathbf{u}_2 + \dots + \alpha_k\mathbf{u}_k = \mathbf{0}$$
Independencia Lineal (L.I.)
Decimos que $U$ es linealmente independiente (L.I.) si y solo si la única combinación lineal de $U$ que resulta en el vector nulo es la trivial, es decir:
$$\alpha_1\mathbf{u}_1 + \alpha_2\mathbf{u}_2 + \dots + \alpha_k\mathbf{u}_k = \mathbf{0} \implies \alpha_1 = \alpha_2 = \dots = \alpha_k = 0$$
(La única combinación lineal de $U$ que da el vector nulo es la trivial).
Teorema de Caracterización de la Dependencia Lineal
Teorema: Sea $U = \{\mathbf{u}_1, \mathbf{u}_2, \dots, \mathbf{u}_k\} \subset \mathbb{R}^n$ con $k \ge 2$. Entonces $U$ es Linealmente Dependiente (L.D.) si y solo si existe al menos un vector de $U$ que es Combinación Lineal (C.L.) de los restantes vectores de $U$.