Fundamentos de Álgebra Lineal y Cálculo Diferencial: Espacios Vectoriales y Análisis de Funciones

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 4,45 KB

Conceptos Fundamentales de Estructuras Algebraicas y Análisis

Espacios Vectoriales y Subespacios

Sea $(V, +, \cdot)$ un espacio vectorial (e.v.) y $W \subset V$.

Diremos que $W$ es un subespacio vectorial de $(V, +, \cdot)$ si $W$ es espacio vectorial para las mismas operaciones.

Sea $V$ un e.v. y $W \subset V$ con $W \neq \emptyset$. Entonces $W$ es un subespacio vectorial de $V$ si y solo si:

  • Para todo $u, v \in W$, y para todo $\lambda, \mu \in K$ (el cuerpo escalar), se verifica que $\lambda u + \mu v \in W$.

Coordenadas de un Vector

Simbolizaremos las coordenadas mediante $[u]_B$. Sea $B = \{v_1, v_2, \dots, v_n\}$ una base de $V$. Para cada $u \in V$, llamaremos coordenadas de $u$ en $B$ a una $n$-upla de escalares $\lambda_1, \lambda_2, \dots, \lambda_n$ tal que:

$$\lambda_1 v_1 + \lambda_2 v_2 + \dots + \lambda_n v_n = u$$

Las coordenadas de un vector en una base son únicas como consecuencia de la independencia lineal de los vectores de la base.

Combinación Lineal

Llamaremos combinación lineal de un conjunto de vectores $v_1, v_2, \dots, v_k$ a cualquier expresión de la forma:

$$\lambda_1 v_1 + \lambda_2 v_2 + \dots + \lambda_k v_k$$

donde $\lambda_1, \lambda_2, \dots, \lambda_k \in K$. Son, pues, sumas de vectores multiplicados por escalares.

Núcleo de una Matriz

El conjunto de soluciones de un sistema homogéneo de matriz $A \in M_{m \times n}$ con las operaciones definidas para $n$-uplas. Este espacio se denota $\text{nul}(A)$, es decir:

$$\text{nul}(A) = \{x \in \mathbb{R}^n / Ax = 0\}$$

Autovalores y Autovectores

Sea $V$ un e.v. sobre $\mathbb{C}$ y $T: V \to V$ una aplicación lineal. Diremos que $v \in V - \{0\}$ es un autovector de $T$ si existe $\lambda \in \mathbb{C}$ tal que $T(v) = \lambda v$. En este caso, $\lambda$ recibe el nombre de autovalor de $T$.

Propiedades de Funciones Reales

Convexidad y Concavidad

Convexidad. Sea $f: (a, b) \to \mathbb{R}$ derivable en $(a, b)$. Diremos que $f$ es convexa (o cóncava) en $(a, b)$ si la recta tangente a la gráfica en cualquier punto del intervalo se mantiene por debajo (o por encima) de esta en todo el intervalo.

Teorema de Convexidad: Sea $f: (a, b) \to \mathbb{R}$ derivable en $(a, b)$. Entonces son equivalentes:

  1. $f$ es convexa (cóncava) en $(a, b)$.
  2. $f'$ es creciente (o decreciente) en $(a, b)$.

Crecimiento de Funciones

Crecimiento. Sea $f: (a, b) \to \mathbb{R}$ derivable en $(a, b)$. Entonces son equivalentes:

  • a) $f'(x) \geq 0$ ($f'(x) \leq 0$) $\forall x \in (a, b)$.
  • b) $f$ es creciente (o decreciente) en $(a, b)$.

Notación Asintótica

Diremos que $f(x)$ es o pequeña de $g(x)$ ($f = o(g)$) en $b$ si:

$$\lim_{x \to b} \frac{f(x)}{g(x)} = 0$$

Diremos que $f(x)$ es una O grande de $g(x)$ ($f = O(g)$) en $b$ si existen $k, \delta > 0$ tales que:

$$|f(x)| \leq k|g(x)|, \quad \forall x \in E^*(b, \delta)$$

donde $E^*(b, \delta)$ denota un entorno perforado de $b$.

Función Derivada

Sea $A \subset \mathbb{R}$, $f: A \to \mathbb{R}$ derivable en todos los puntos de $A$. Llamaremos función derivada de $f$, y la denotaremos $f'$, a la función que asigna a cada elemento de $A$ la derivada de $f$ en ese punto. Es decir:

$$f'(x) = \lim_{h \to 0} \frac{f(x + h) - f(x)}{h}, \quad \forall x \in A$$

Cálculo Integral

Regla de Barrow (Teorema Fundamental del Cálculo)

Sea $f: [a, b] \to \mathbb{R}$ continua y $G$ una primitiva de $f$ en $[a, b]$. Entonces:

$$\int_a^b f(x)dx = G(b) - G(a)$$

Demostración:

Sea $F(x) = \int_a^x f(t)dt \quad \forall x \in [a, b]$. Como $G$ y $F$ son primitivas de $f$ en $[a, b]$, se diferencian en una constante, es decir $F(x) = G(x) + C \quad \forall x \in [a, b]$.

En particular:

  • $F(a) = G(a) + C \implies C = F(a) - G(a) = -G(a)$
  • $F(b) = G(b) + C \implies \int_a^b f(t)dt = G(b) + C = G(b) - G(a)$

Entradas relacionadas: