Fundamentos de Álgebra Lineal y Cálculo Diferencial: Espacios Vectoriales y Análisis de Funciones
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en
español con un tamaño de 4,45 KB
Conceptos Fundamentales de Estructuras Algebraicas y Análisis
Espacios Vectoriales y Subespacios
Sea $(V, +, \cdot)$ un espacio vectorial (e.v.) y $W \subset V$.
Diremos que $W$ es un subespacio vectorial de $(V, +, \cdot)$ si $W$ es espacio vectorial para las mismas operaciones.
Sea $V$ un e.v. y $W \subset V$ con $W \neq \emptyset$. Entonces $W$ es un subespacio vectorial de $V$ si y solo si:
- Para todo $u, v \in W$, y para todo $\lambda, \mu \in K$ (el cuerpo escalar), se verifica que $\lambda u + \mu v \in W$.
Coordenadas de un Vector
Simbolizaremos las coordenadas mediante $[u]_B$. Sea $B = \{v_1, v_2, \dots, v_n\}$ una base de $V$. Para cada $u \in V$, llamaremos coordenadas de $u$ en $B$ a una $n$-upla de escalares $\lambda_1, \lambda_2, \dots, \lambda_n$ tal que:
$$\lambda_1 v_1 + \lambda_2 v_2 + \dots + \lambda_n v_n = u$$
Las coordenadas de un vector en una base son únicas como consecuencia de la independencia lineal de los vectores de la base.
Combinación Lineal
Llamaremos combinación lineal de un conjunto de vectores $v_1, v_2, \dots, v_k$ a cualquier expresión de la forma:
$$\lambda_1 v_1 + \lambda_2 v_2 + \dots + \lambda_k v_k$$
donde $\lambda_1, \lambda_2, \dots, \lambda_k \in K$. Son, pues, sumas de vectores multiplicados por escalares.
Núcleo de una Matriz
El conjunto de soluciones de un sistema homogéneo de matriz $A \in M_{m \times n}$ con las operaciones definidas para $n$-uplas. Este espacio se denota $\text{nul}(A)$, es decir:
$$\text{nul}(A) = \{x \in \mathbb{R}^n / Ax = 0\}$$
Autovalores y Autovectores
Sea $V$ un e.v. sobre $\mathbb{C}$ y $T: V \to V$ una aplicación lineal. Diremos que $v \in V - \{0\}$ es un autovector de $T$ si existe $\lambda \in \mathbb{C}$ tal que $T(v) = \lambda v$. En este caso, $\lambda$ recibe el nombre de autovalor de $T$.
Propiedades de Funciones Reales
Convexidad y Concavidad
Convexidad. Sea $f: (a, b) \to \mathbb{R}$ derivable en $(a, b)$. Diremos que $f$ es convexa (o cóncava) en $(a, b)$ si la recta tangente a la gráfica en cualquier punto del intervalo se mantiene por debajo (o por encima) de esta en todo el intervalo.
Teorema de Convexidad: Sea $f: (a, b) \to \mathbb{R}$ derivable en $(a, b)$. Entonces son equivalentes:
- $f$ es convexa (cóncava) en $(a, b)$.
- $f'$ es creciente (o decreciente) en $(a, b)$.
Crecimiento de Funciones
Crecimiento. Sea $f: (a, b) \to \mathbb{R}$ derivable en $(a, b)$. Entonces son equivalentes:
- a) $f'(x) \geq 0$ ($f'(x) \leq 0$) $\forall x \in (a, b)$.
- b) $f$ es creciente (o decreciente) en $(a, b)$.
Notación Asintótica
Diremos que $f(x)$ es o pequeña de $g(x)$ ($f = o(g)$) en $b$ si:
$$\lim_{x \to b} \frac{f(x)}{g(x)} = 0$$
Diremos que $f(x)$ es una O grande de $g(x)$ ($f = O(g)$) en $b$ si existen $k, \delta > 0$ tales que:
$$|f(x)| \leq k|g(x)|, \quad \forall x \in E^*(b, \delta)$$
donde $E^*(b, \delta)$ denota un entorno perforado de $b$.
Función Derivada
Sea $A \subset \mathbb{R}$, $f: A \to \mathbb{R}$ derivable en todos los puntos de $A$. Llamaremos función derivada de $f$, y la denotaremos $f'$, a la función que asigna a cada elemento de $A$ la derivada de $f$ en ese punto. Es decir:
$$f'(x) = \lim_{h \to 0} \frac{f(x + h) - f(x)}{h}, \quad \forall x \in A$$
Cálculo Integral
Regla de Barrow (Teorema Fundamental del Cálculo)
Sea $f: [a, b] \to \mathbb{R}$ continua y $G$ una primitiva de $f$ en $[a, b]$. Entonces:
$$\int_a^b f(x)dx = G(b) - G(a)$$
Demostración:
Sea $F(x) = \int_a^x f(t)dt \quad \forall x \in [a, b]$. Como $G$ y $F$ son primitivas de $f$ en $[a, b]$, se diferencian en una constante, es decir $F(x) = G(x) + C \quad \forall x \in [a, b]$.
En particular:
- $F(a) = G(a) + C \implies C = F(a) - G(a) = -G(a)$
- $F(b) = G(b) + C \implies \int_a^b f(t)dt = G(b) + C = G(b) - G(a)$