Conceptos y Métodos Fundamentales de Optimización Matemática
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en
español con un tamaño de 6,83 KB
Métodos de Optimización Numérica
Método del Gradiente Descendente
Proporciona una buena dirección de descenso inicial, pero puede presentar baja convergencia cerca del óptimo. Su velocidad de convergencia es típicamente lineal (considerada lenta).
Método de Newton
Ofrece buena convergencia cerca de la solución, pero no garantiza la orientación hacia un mínimo (puede converger a máximos o puntos silla si no se toman precauciones). Su velocidad de convergencia es cuadrática (considerada rápida) bajo ciertas condiciones.
Conceptos Clave en Optimización
Moverse en la dirección del descenso dada por el negativo del gradiente (-∇f) es la mejor opción localmente (marginalmente), pero esto no determina la rapidez global de convergencia, la cual depende de la longitud del paso (tamaño de paso) que se pueda dar en esa dirección.
En un problema con restricciones, bajo condiciones de optimalidad (como las de KKT), el gradiente de la función objetivo (∇f) en un punto óptimo se puede expresar como una combinación lineal de los gradientes de las restricciones activas en ese punto. La regularidad del punto es importante para la unicidad de los multiplicadores asociados.
En un problema con restricciones, si una restricción está activa en la solución óptima, su correspondiente multiplicador de Lagrange (si es distinto de cero) indica la sensibilidad o tasa marginal de cambio del valor óptimo de la función objetivo respecto a una pequeña perturbación (relajación) del lado derecho de esa restricción.
Un problema de optimización donde todas las restricciones son lineales (igualdades o desigualdades) tiene la propiedad de que todo punto factible es regular, siempre que el conjunto factible no sea vacío y las restricciones sean linealmente independientes.
En Programación Lineal (PL), no todos los vértices (puntos extremos) del conjunto factible satisfacen necesariamente las condiciones de Karush-Kuhn-Tucker (KKT). Solo aquellos vértices que corresponden a soluciones óptimas las cumplen.
Definiciones Fundamentales
- Punto extremo: En el contexto de conjuntos convexos, es un punto que no puede representarse como una combinación convexa estricta (con pesos estrictamente entre 0 y 1) de otros dos puntos distintos del conjunto. En optimización lineal, las soluciones óptimas (si existen) se encuentran en puntos extremos.
- Solución factible: Cualquier punto
xque satisface todas las restricciones del problema (pertenece al dominio o región factible). - Solución óptima: Un punto factible
x*tal quef(x*) ≤ f(y)para todayfactible (en un problema de minimización). - Valor óptimo: El ínfimo (o mínimo, si se alcanza) del valor de la función objetivo
f(x)sobre el conjunto factible. - Conjunto convexo: Un conjunto
Ddonde, para cualquier par de puntosx, y ∈ D, el segmento de línea que los une está completamente contenido enD. Formalmente,αx + (1-α)y ∈ Dpara todoα ∈ [0, 1]. - Punto regular (Condición LICQ): Un punto factible
xdonde los gradientes de las restricciones de igualdad activas y las restricciones de desigualdad activas enxson linealmente independientes. Existen otras condiciones de calificación de restricciones (CQ) además de LICQ.
Teoremas Relevantes en Optimización
- Teorema (Existencia basada en coercitividad): Sea
funa función continua definida sobre un conjunto cerrado y no vacíoD ⊆ ℝⁿ. Sifes coercitiva (es decir,f(x) → +∞cuando||x|| → +∞), entonces el problema de minimizarfsobreDadmite al menos una solución óptima global. - Teorema de Weierstrass: Sea
funa función continua definida sobre un conjuntoD ⊆ ℝⁿque es compacto (cerrado y acotado) y no vacío. Entonces,falcanza su mínimo y máximo global enD, es decir, el problema de optimización tiene al menos una solución óptima. - Condición Necesaria de Segundo Orden (CN2 - sin restricciones): Si
x*es un mínimo local defyfes dos veces continuamente diferenciable en una vecindad dex*, entonces el gradiente∇f(x*) = 0y la matriz HessianaH(f(x*))es semidefinida positiva. - Condición Suficiente de Segundo Orden (CS2 - sin restricciones): Si
fes dos veces continuamente diferenciable en una vecindad dex*,∇f(x*) = 0y la matriz HessianaH(f(x*))es definida positiva, entoncesx*es un mínimo local estricto def. - Teorema de Lagrange (Condiciones Necesarias de Primer Orden con Igualdades): Sea
x*un mínimo local del problema de minimizarf(x)sujeto ah_i(x) = 0parai=1,...,m. Six*es un punto regular y las funcionesf, h_ison continuamente diferenciables, entonces existen escalaresλ_i(multiplicadores de Lagrange) tales que∇f(x*) + Σᵢ λᵢ ∇hᵢ(x*) = 0. (Las condiciones KKT generalizan esto para incluir desigualdades). - Condición de Slater: Considera un problema convexo con restricciones
gⱼ(x) ≤ 0(gⱼconvexas) yAx = b(lineales). Si existe un puntox̃factible tal quegⱼ(x̃) < 0para todas lasjcorrespondientes a restricciones de desigualdad no lineales (yAx̃ = b), entonces se cumple la condición de Slater, que es una condición de calificación de restricciones que garantiza que las condiciones KKT son necesarias para la optimalidad. - Propiedad de Problemas Convexos (Mínimos Locales): En un problema de optimización convexo (minimizar una función convexa sobre un conjunto convexo), cualquier mínimo local es también un mínimo global.
- Propiedad de Problemas Estrictamente Convexos (Unicidad): Si el problema de optimización consiste en minimizar una función estrictamente convexa sobre un conjunto convexo, entonces si existe una solución óptima global, esta es única.