Optimización

 


Extremos relativos de funciones de dos variables

Sea $z=f(x,y)$ una función definida en una región $D$ y sea $(a,b)$ un punto de $D$. Se dice que

TEOREMA sobre localización de los extremos relativos: Si $f(a,b)$ es un extremo relativo de $f$ en una región abierta (no contiene a su frontera), entonces el punto $(a,b)$ es un punto crítico de $f$; puesto que $(a,b)$ no está en la frontera debe ocurrir o bien que sea estacionario o bien que sea singular.

IMPORTANTE:

Búsqueda de extremos relativos de funciones de dos variables

Partimos de una función $f$ diferenciable en $D$; si $(a,b)$ es un punto estacionario de $f$, la fórmula de Taylor de segundo orden será $$\Delta z=f(a+\Delta x, b+\Delta y)-f(a,b)=\frac{1}{2}d^2f+R_2$$ donde $$d^2f=f''_{xx}(a,b)\Delta x^2+ 2f''_{xy}(a,b)\Delta x \Delta y+f''_{yy}(a,b)\Delta y^2$$ Puesto que $R_2$ es un infinitésimo de orden superior a $d^2f$ cuando $(\Delta x,\Delta y)$ tiende a $(0,0)$, el signo de $\Delta z$ es el mismo que el de $d^2f$. En esto se basa este método, pues dado que la función alcanza un extremo en un punto estacionario si en ese punto el signo de $\Delta z$ se mantiene constante para cualesquiera valores de $\Delta x$ y $\Delta y$, esto equivale a que el signo de $d^2f$ se mantenga constante:

Podemos manipular la expresión de $d^2f$ para escribirla como $$d^2f=\frac{1}{f''_{xx}}[(f''_{xx}\Delta x+f''_{xy}\Delta y)^2+(f''_{xx}f''_{yy}-(f''_{xy})^2) \Delta y^2]$$ Observa que $$f''_{xx}f''_{yy}-(f''_{xy})^2=\left| \begin{array}{ll}f''_{xx} & f''_{xy} \\ f''_{yx} & f''_{yy} \end{array} \right|=H $$ es el determinante de la matriz hessiana, que se llama hessiano. Con esta notación la última expresión para $d^2f$ se escribe como \begin{equation} d^2f=\frac{1}{f''_{xx}}[(f''_{xx}\Delta x+f''_{xy}\Delta y)^2+H \Delta y^2] \end{equation} expresión de la que puede concluirse que


Extremos condicionados de funciones de dos variables

Un extremo (máximo o mínimo) de la función $f(x,y)$ cuando $(x,y)$ está sobre una curva del plano contenida en el dominio de $f$, cuya ecuación es $g(x,y)=0$, se dice que es un extremo de $f$ condicionado a la condición o restricción $g(x,y)=0$. El método de Lagrange permite hallar analíticamente los puntos extremos condicionados de una función suave, es decir, con derivadas parciales continuas.

TEOREMA de Lagrange para funciones de dos variables y una condición: Si $f(x,y)$ y $g(x,y)$ son funciones con derivadas parciales continuas tal que $f$ tiene un máximo o mínimo sujeto a la restricción dada por $g(x,y)=0$, entonces ese extremo se produce en uno de los puntos críticos de la función $F(x,y,\lambda)$ dada por $$F(x,y,\lambda)=f(x,y)+\lambda g(x,y)$$ Al número $\lambda$ se le llama multiplicador de Lagrange.

El método de los multiplicadores de Lagrange, a un nivel muy básico, consiste en


Extremos absolutos de funciones de dos variables

Sea $z=f(x,y)$ una función definida en una región $D$ y sea $(a,b)$ un punto de $D$. Se dice que $f(a,b)$ es el valor máximo absoluto (o simplemente $f(a,b)$ es máximo absoluto) de $f$ en $D$ si $f(a,b)\geq f(x,y)$ para cualquier $(x,y)$ en $D$. Si se invierte la desigualdad, $f(a,b)$ es el mínimo absoluto de $f$ en $D$.

TEOREMA de Weierstrass: Si la función $f(x,y)$ es continua en la región $D$, que es acotada y contiene a su frontera, entonces la función $f$ alcanza sus valores mínimo y máximo absolutos en $D$.

En general, la búsqueda de extremos absolutos puede hacerse siguiendo los siguientes pasos: