Fundamentos de Álgebra Lineal: Transformaciones, Núcleo, Imagen y Vectores Propios

Enviado por Chuletator online y clasificado en Física

Escrito el en español con un tamaño de 6,37 KB

Definición de Transformación Lineal

Diremos que una función $T: \mathbb{R}^n \to \mathbb{R}^m$ es una transformación lineal (TL) de $\mathbb{R}^n$ en $\mathbb{R}^m$ si, y solo si, verifica las siguientes condiciones:

  1. (i) Aditividad: $T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v})$, $\forall \mathbf{u}, \mathbf{v} \in \mathbb{R}^n$.
  2. (ii) Homogeneidad: $T(\alpha\mathbf{u}) = \alpha T(\mathbf{u})$, $\forall \alpha \in \mathbb{R}$, $\forall \mathbf{u} \in \mathbb{R}^n$.

Propiedades de las Transformaciones Lineales

Núcleo e Imagen

Sea $T: \mathbb{R}^n \to \mathbb{R}^m$ una transformación lineal.

Definición del Núcleo (Espacio Nulo)

Llamaremos núcleo de $T$, denotado $N(T)$ o $Ker(T)$, al conjunto de vectores en el dominio que son mapeados al vector cero del codominio:

$$N(T) = \{\mathbf{v} \in \mathbb{R}^n: T(\mathbf{v}) = \mathbf{0}\}$$

Teorema Fundamental sobre Núcleo e Imagen

Sea $T: \mathbb{R}^n \to \mathbb{R}^m$ una transformación lineal (TL). Entonces:

(A) $N(T)$ es un subespacio vectorial de $\mathbb{R}^n$ (Dominio).

(B) $Im(T)$ es un subespacio vectorial de $\mathbb{R}^m$ (Codominio).

Demostración (A): $N(T)$ es Subespacio Vectorial

Veamos que se verifican las condiciones de subespacio:

  1. Vector nulo: $\mathbf{0} \in N(T)$, pues $T(\mathbf{0}) = \mathbf{0}$.
  2. Cerradura bajo la suma: Si $\mathbf{v}_1 \in N(T)$ y $\mathbf{v}_2 \in N(T)$, queremos probar que $\mathbf{v}_1 + \mathbf{v}_2 \in N(T)$.

    En efecto, $T(\mathbf{v}_1 + \mathbf{v}_2) = T(\mathbf{v}_1) + T(\mathbf{v}_2)$. Como $\mathbf{v}_i \in N(T)$, entonces $T(\mathbf{v}_i) = \mathbf{0}$ para $i=1, 2$. Por lo tanto, $T(\mathbf{v}_1 + \mathbf{v}_2) = \mathbf{0} + \mathbf{0} = \mathbf{0}$. Concluimos que $\mathbf{v}_1 + \mathbf{v}_2 \in N(T)$.

  3. Cerradura bajo el producto escalar: Si $\mathbf{v} \in N(T)$ y $\alpha \in \mathbb{R}$, queremos probar que $\alpha\mathbf{v} \in N(T)$.

    En efecto, $T(\alpha\mathbf{v}) = \alpha T(\mathbf{v})$. Como $\mathbf{v} \in N(T)$, entonces $T(\mathbf{v}) = \mathbf{0}$. Por lo tanto, $T(\alpha\mathbf{v}) = \alpha\mathbf{0} = \mathbf{0}$. Concluimos que $\alpha\mathbf{v} \in N(T)$.

De (1), (2) y (3) concluimos que $N(T)$ es un subespacio vectorial de $\mathbb{R}^n$.

Demostración (B): $Im(T)$ es Subespacio Vectorial

La Imagen de $T$, $Im(T)$, es el conjunto de todos los vectores $\mathbf{w} \in \mathbb{R}^m$ tales que $\mathbf{w} = T(\mathbf{v})$ para algún $\mathbf{v} \in \mathbb{R}^n$. Verificamos las condiciones de subespacio:

  1. Vector nulo: $\mathbf{0} \in Im(T)$, pues $\mathbf{0} = T(\mathbf{0})$.
  2. Cerradura bajo la suma: Si $\mathbf{w}_1 \in Im(T)$ y $\mathbf{w}_2 \in Im(T)$, queremos probar que $\mathbf{w}_1 + \mathbf{w}_2 \in Im(T)$.

    Como $\mathbf{w}_1 \in Im(T)$ y $\mathbf{w}_2 \in Im(T)$, existen $\mathbf{v}_1, \mathbf{v}_2 \in \mathbb{R}^n$ tales que $\mathbf{w}_1 = T(\mathbf{v}_1)$ y $\mathbf{w}_2 = T(\mathbf{v}_2)$. Por la aditividad de $T$: $\mathbf{w}_1 + \mathbf{w}_2 = T(\mathbf{v}_1) + T(\mathbf{v}_2) = T(\mathbf{v}_1 + \mathbf{v}_2)$. Dado que $\mathbf{v}_1 + \mathbf{v}_2 \in \mathbb{R}^n$, esto implica que $\mathbf{w}_1 + \mathbf{w}_2 \in Im(T)$.

  3. Cerradura bajo el producto escalar: Si $\mathbf{w} \in Im(T)$ y $\alpha \in \mathbb{R}$, queremos probar que $\alpha\mathbf{w} \in Im(T)$.

    Como $\mathbf{w} \in Im(T)$, existe $\mathbf{v} \in \mathbb{R}^n$ tal que $\mathbf{w} = T(\mathbf{v})$. Por la homogeneidad de $T$: $\alpha\mathbf{w} = \alpha T(\mathbf{v}) = T(\alpha\mathbf{v})$. Dado que $\alpha\mathbf{v} \in \mathbb{R}^n$, esto implica que $\alpha\mathbf{w} \in Im(T)$.

De (1), (2) y (3) concluimos que $Im(T)$ es un subespacio vectorial de $\mathbb{R}^m$.

Conceptos Fundamentales de Espacios Vectoriales

Definición de Subespacio Vectorial

Un conjunto $S$ es un subespacio vectorial de $\mathbb{R}^n$ cuando se cumplen las siguientes condiciones:

  1. $S \subset \mathbb{R}^n$ (S es un subconjunto de $\mathbb{R}^n$).
  2. El vector nulo: $\mathbf{0} \in S$ ($\mathbf{0}$ es el vector nulo de $\mathbb{R}^n$).
  3. Cerradura bajo la suma (Aditividad): Cualesquiera sean $\mathbf{v}, \mathbf{w} \in S$, se cumple que $\mathbf{v} + \mathbf{w} \in S$.
  4. Cerradura bajo el producto escalar (Homogeneidad): Cualquiera sea $\alpha \in \mathbb{R}$ y cualquiera sea $\mathbf{v} \in S$, se cumple que $\alpha\mathbf{v} \in S$.

Vector Propio y Valor Propio

Si $A$ es una matriz $n \times n$, decimos que un vector no nulo $\mathbf{u} \in \mathbb{R}^n$ es un vector propio de $A$ cuando existe un número $\lambda \in \mathbb{R}$, llamado valor propio asociado a $\mathbf{u}$, de modo que:

$$A\mathbf{u} = \lambda\mathbf{u}$$

Dependencia e Independencia Lineal

Sea $U = \{\mathbf{u}_1, \mathbf{u}_2, \dots, \mathbf{u}_k\} \subset \mathbb{R}^n$ un conjunto de vectores.

Dependencia Lineal (L.D.)

Decimos que $U$ es linealmente dependiente (L.D.) cuando existen escalares $\alpha_1, \alpha_2, \dots, \alpha_k \in \mathbb{R}$, no todos iguales a cero, de modo que su combinación lineal es el vector nulo:

$$\alpha_1\mathbf{u}_1 + \alpha_2\mathbf{u}_2 + \dots + \alpha_k\mathbf{u}_k = \mathbf{0}$$

Independencia Lineal (L.I.)

Decimos que $U$ es linealmente independiente (L.I.) si y solo si la única combinación lineal de $U$ que resulta en el vector nulo es la trivial, es decir:

$$\alpha_1\mathbf{u}_1 + \alpha_2\mathbf{u}_2 + \dots + \alpha_k\mathbf{u}_k = \mathbf{0} \implies \alpha_1 = \alpha_2 = \dots = \alpha_k = 0$$

(La única combinación lineal de $U$ que da el vector nulo es la trivial).

Teorema de Caracterización de la Dependencia Lineal

Teorema: Sea $U = \{\mathbf{u}_1, \mathbf{u}_2, \dots, \mathbf{u}_k\} \subset \mathbb{R}^n$ con $k \ge 2$. Entonces $U$ es Linealmente Dependiente (L.D.) si y solo si existe al menos un vector de $U$ que es Combinación Lineal (C.L.) de los restantes vectores de $U$.

Entradas relacionadas: