Page 1

Maracay 7 de Diciembre de 2014

OPTIMIZACION SIN RESTRICCIONES CON MAS DE UNA VARIABLE

Método de Lagrange y sus Beneficios (p.16)

¿Dónde Aplicamos el Método de Lagrange? (p.15)

El método lagrangian (también conocido como multiplicadores lagrangian) lo propuso Joseph Louis Lagrange (1736-1813), un matemático nacido en Italia (p.10)

Este método reduce el problema restringido con n variables a uno sin restricciones de n + k varia-

-

Visualizar

-

Identificar

-

Aproximar

1


OPTIMIZACION SIN RESTRICCIONES CON MAS DE UNA VARIABLE

INDICE OPTIMIZACION SIN RESTRICCIONES ………………...………………………………………………. 3 Optimización sin Restricciones Funciones de dos variables ………………………………………………… 3

METODOS DE OPTIMIZACION SIN RESTRICCIONES………………………………………………… 4

Método de Búsqueda Directa— Método Simplex……...……………………………………………………..4

Método de la Matriz Hessiana para Funciones de dos Variables……...……………………………………. 5 Método de Quasi— Newton ……...…………………………………………………………………………. 5

Método Newton—Raphson………………………………………………………………………………….. 6

Método de Búsqueda Indirecta — Gradiente Conjugado…………………………………………………….. 8 MÉTODO DE LAGRANGE …………………………………………………………………………………10

Historia del Método de Lagrange…………………………………………………………………………….. 10

ETAPAS DEL METODO DE LAGRANGE………………………………………………………………….12

OBJETIVOS Y CARACTERISTICAS DEL MÉTODO DE LAGRANGE ………………………………. ..14

CAMPO DE APLICACIÓN DEL MÉTODO DE LAGRANGE ……………………………………………...15 Ejercicios para Resolver ………………………………………………………………………………………..16 Ejercicios como caso practico de la Revista Digital ……………………………………………………….. ...17

2


Optimización Sin Restricciones con Mas de Una Variable

OPTIMIZACION SIN RESTRICCIONES En optimización sin restricciones se minimiza una función objetivo que depende de variables reales sin restricciones sobre los valores de esas variables. La formulación matemática es: (OSR) ---> min f (x) x∈IRn

y1,...,ym de una señal tomadas en los tiempos t1, ...tm. Desde los datos y el conocimiento de la aplicación, se deduce que la señal tiene un comportamiento exponencial y oscilatorio, y se elige modelarlo por la función: -(x3-t)2/x4

EJEMPLO: Se intenta encontrar una curva que ajuste algunos datos experimentales, por ejemplo medidas

Φ (t,x)= x1 + x2e (x6t)

+x5cos

modelo. Se desea seleccionarlos de manera que los valores del modelo Φ (t,x) ajusten los datos observados y tanto como sea posible. Para establecer el objetivo como un problema de optimización, se agrupan los parámetros xi en un vector de incógnitas y se definen los residuos, que miden la discrepancia entre el modelo y los datos observados. La estimación de x se obtendrá resolviendo el problema:

Extremos de una Función

(MC) —> min f (x)= r(x)t r(x)/2

Los números reales xi i=1

x∈IR6

,..., 6 son los parámetros del

OPTIMIZACION SIN RESTRICCIONES FUNCIONES DE 2 VARIABLES Para que una función como z = f (x,y) tenga un mínimo o máximo relativo, tres condiciones deben ser satisfechas: 1. Las derivadas parciales de primer orden deben simultáneamente ser iguales a cero. Ello indica que en un punto dado (a,b) llamado “punto critico”, la función no esta creciendo ni decreciendo con respecto a los ejes principales sino a una superficie relativa.

2. Las derivadas parciales de segundo orden deben ser negativas cuando ellas son evaluadas en el punto critico (a,b) para un máximo relativo y positivas para un mínimo relativo . Ello asegura que la función es cóncava y moviéndose hacia abajo en relación a los ejes principales en el caso de un máximo relativo la función es convexo y moviéndose hacia arriba en relación a los ejes principales en el caso de un

mínimo relativo . 3. El producto de las derivadas parciales de segundo orden evaluadas en el punto critico deben exceder el producto de las derivadas parciales cruzadas también evaluadas en dicho punto. Esta condición adicional es necesaria para evitar un punto de inflexión o punto de silla. En Resumen:

Condición Necesaria

Máximo

Mínimo

Primer Orden

fx= fy = 0

fx = fy = 0

Segundo Orden *

fxx, fyy < 0 y fxx, fyy > (fxy)

2

Punto de Inflexión

2 Fxx, fyy > 0 y fxx, fyy < (fxy)

Nota: Las derivadas parciales de segundo orden son evaluadas en el punto critico (a,b) o los puntos críticos que hubieren.

En la situación que fxx, fyy < (fxy)2 , cuando fxx y fyy tienen el mismo signo , la función esta en su punto de inflexión. Caso contrario , la función estará en un punto de silla . Si fxx, fyy = (fxy)2 entonces se requerirá mayor información. Página 3

3


Métodos de Optimización Sin Restricciones

METODOS DE OPTIMIZACION SIN RESTRICCIONES Los algoritmos para la optimización no lineal sin restricciones con múltiples variables se pueden clasificar como: (i) Búsqueda sin el uso de derivadas (ii) búsqueda usando información de la derivada primera, y (iii) búsqueda usando información de la derivada segunda. Ejemplos típicos de que no usan derivadas son el método simplex, el algoritmo de Hooke y Jeeves, el método de Rosenbrock y el método de las direcciones conjugadas. Entre los algoritmos que usan información del gradiente están el método de máximo descenso, el método del gradiente conjugado y los métodos cuasi Newton. El método del máximo descenso realiza una búsqueda a lo largo de la dirección opuesta al gradiente para minimizar la función. El método de gradiente conjugado combina la información del último gradiente con la información de gradientes de iteraciones previas. Los métodos cuasi Newton construyen una aproximación de la curvatura de la función no lineal utilizando sólo información del gradiente, evitando por lo tanto calcular de forma explícita la matriz hessiana. En el método de Newton, la inversa de la matriz hessiana pre multiplica a la dirección de máximo descenso y se encuentra una dirección adecuada usando una aproximación cuadrática de la función objetivo

Método de Búsqueda Directa— Método Simplex El Método Simplex es un método analítico de solución de problemas de programación lineal capaz de resolver modelos más complejos que los resueltos mediante el método gráfico sin restricción en el número de variables El Método Simplex es un método iterativo que permite ir mejorando la solución en cada paso. La razón matemática de esta mejora radica en que el método consiste en caminar del vértice de un poliedro a un vértice vecino de manera que aumente o disminuya (según el contexto de la función objetivo, sea maximizar o minimizar), dado que el número de vértices que presenta un poliedro solución es finito siempre se hallará solución. El Método Simplex trabaja basándose en ecuaciones y las restricciones iniciales que se modelan mediante programación lineal no lo son, para ello hay que convertir estas inecuaciones en ecuaciones utilizando unas variables denominadas de holgura y exceso relacionadas con el recurso al cual hace referencia la restricción y que en el tabulado final representa el "Slack or surplus" al que hacen referencia los famosos programas de resolución de investigación de operaciones, estas variables adquieren un gran valor en el análisis de sensibilidad y juegan un rol fundamental en la creación de la matriz identidad base del Simplex. Estas variables suelen estar representadas por la letra "S", se suman si la restricción es de signo "<= " y se restan si la restricción es de signo ">=". Ejemplo:

4


Métodos de Optimización Sin Restricciones

Método de la Matriz Hessiana para Funciones de dos Variables El hessiano, conocido también como discriminante o matriz hessiana, fue introducido en el año de 1844 por Hesse, matemático alemán quien nació en 1811 y murió en 1874. En Matemática, la matriz hessiana de una función f de n variables, es la matriz cuadrada de n × n, de las segundas derivadas parciales como por ejemplo: Si tenemos un ejercicio con dos variables, obtendremos una matriz hessiana 2 x 2. Si el ejercicio fuera de tres variables, la matriz gesiana será 3 x 3, y así sucesivamente. Para el caso de dos variables, la matriz hessiana 2 x 2 se genera de la siguiente manera:

Pasos a seguir para encontrar máximos y mínimos utilizando matrices Hessianas: 1. Tener la función original que se va a trabajar. 2. Calcular las primeras derivadas parciales de la función con respecto a cada una de las variables que se tiene la función original. 3. Igualar a cero las primeras derivadas que se calcularon en el paso 2. 4. Simultanear las ecuaciones generadas en el paso 3 para encontrar el valor de cada una de las variables. Esos valores encontrados para cada una de las variables serán las coordenadas de los puntos críticos. 5. Teniendo los puntos críticos que se encontraron en el paso 4, se tiene que calcular las segundas derivadas parciales en el punto crítico de modo que asignemos los valores de cada elemento de la matriz hessiana, ya sea matriz 2 x 2 (si la función es de 2 variables), 3 x 3 (si la función es de 3 variables), 4 x 4 (si la función es de 4 variables), n x n (si la función es de n variables). 6. Resolver la matriz hessiana normalmente cómo se resuelve la determinante de una matriz cuadrada. El resultado que se obtenga de la matriz hessiana es la respuesta.

Método de Quasi— Newton Los métodos Quasi-Newton, se utilizan si la derivada de la función objetivo es difícil de calcular, o ésta viene dada de forma numérica. Se basan en sustituir las derivadas por aproximaciones en diferencias finitas. La idea fundamental de los métodos Quasi-Newton es intentar construir una aproximación de la inversa del Hessiano, usando información obtenida durante el proceso de descenso Estos métodos son similares a los métodos de gradiente conjugado en el sentido de que se basan principalmente en propiedades de las funciones cuadráticas. Sin embargo, en el método del gradiente conjugado, la principal fortaleza de la búsqueda se deriva del uso de las direcciones conjugadas de búsqueda, mientras que los métodos de Quasi-Newton están diseñados para imitar más directamente las características positivas del método de Newton pero usando solo información de primer orden.

5


Métodos de Optimización Sin Restricciones

Ejemplo Etapa 1: (Punto inicial). Se toma

Por tanto coincide con el método de la máxima pendiente, resultando t = 2 y

Etapa 2: (Generación de la dirección de búsqueda). Para usar la fórmula de DFP se necesitan los vectores y matrices:

Método Newton—Raphson El método de Newton (conocido también como el método de Newton-Raphson o el método de Newton-Fourier) fue descrito por Isaac Newton. Es un algoritmo eficiente para encontrar aproximaciones de los ceros o raíces de una función real. También puede ser usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su primera derivada.

6


Métodos de Optimización Sin Restricciones

Este método parte de una aproximación inicial x0 y obtiene una aproximación mejor, x1, dada por la fórmula:

La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor. Efectivamente, sea r un cero de f y sea x una aproximación a r tal que r=x+h. Si f'' existe y es continua, por el teorema de Taylor tenemos: 0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2) en donde h=r-x. Si x está próximo a r (es decir h es pequeña), es razonable ignorar el término O(h2): 0 = f(x) + hf'(x) por lo que obtenemos la siguiente expresión para h:

teniendo en cuenta que r=x+h es fácil derivar

El método de Newton tiene una interpretación geométrica sencilla, como se puede apreciar del análisis de la figura. De hecho, el método de Newton consiste en una linealización de la función, es decir, f se reemplaza por una recta tal que contiene al punto (x0,f(x0)) y cuya pendiente coincide con la derivada de la función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se obtiene de la intersección de la función linear con el eje X de ordenadas. Veamos cómo podemos obtener la ecuación a partir de lo dicho en el párrafo anterior. La ecuación de la recta que pasa por el punto (x0,f(x0)) y de pendiente f'(x0) es: y - f(x0) = f'(x0)(x-x0) de donde, haciendo y=0 y despejando x obtenemos la ecuación de Newton-Raphson

El método de Newton es muy rápido y eficiente ya que la convergencia es de tipo cuadrático (el número de cifras significativas se duplica en cada iteración). Sin embargo, la convergencia depende en gran medida de la forma que adopta la función en las proximidades del punto de iteración.

7


Métodos de Optimización Sin Restricciones

Método de Búsqueda Indirecta — Gradiente Conjugado En matemática, el método del gradiente conjugado es un algoritmo para resolver numéricamente los sistemas de ecuaciones lineales cuyas matrices son simétricas y definidas positivas. Es un método iterativo, así que se puede aplicar a los sistemas dispersos que son demasiado grandes para ser tratados por métodos directos como la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve numéricamente las ecuaciones en derivadas parciales. El método del gradiente conjugado se puede utilizar también para resolver los problemas de optimización sin restricciones como la minimización de la energía. El método del gradiente biconjugado proporciona una generalización para matrices no simétricas. Varios métodos del gradiente conjugado no lineales busca los mínimos de las ecuaciones no lineales. Ejemplo: Etapa 1: (Punto inicial). Se toma x(1) = (0, 0)T. De nuevo, la dirección de búsqueda por lo que no se repite, y se hace: t=2 y x2 = (0,1/2)T.

es

Etapa 2: (Generación de la dirección de búsqueda). Se obtiene

Etapa 3: (Comprobación de optimalidad). Como d(2) ≠0, se trata de una dirección de descenso. Etapa 4: (Búsqueda lineal). Para calcular el salto, se resuelve el problema: Minimizar:

Puesto

que:

Se obtiene:

el valor óptimo de la búsqueda lineal es: α2=1 > 0.

Etapa 5: (Actualización). Se hace Etapa 6: (Comprobación de optimalidad). Puesto que x(3) satisface

se ha alcanzado el óptimo.

8


Algo Mas … Ludwig Otto Hesse (22 abril 1811 – 4 agosto 1874) fue un matemático alemán. Hesse nació en Königsberg, Prussia, y murió en Munich, Bavaria. Trabajó en la teoría de invariantes. La matriz hessiana y la forma normal de Hesse son nombrados en su honor. Sus obras fueron: Vorlesungen über analytische Geometrie des Raumes. (Lectures on analytic geometry of space) Leipzig (3. A. 1876) Vorlesungen aus der analytischen Geometrie der geraden Linie, des Punktes und des Kreises. (Lectures from the analytical geometry of the straight line, the point and the circle) Leipzig (1881). Hrsg. A. Gundelfinger Die Determinanten elementar behandelt. (Determinants elementary treated) Leipzig (2. A. 1872) Die vier Species. (The four Species) Leipzig (1872) Sus obras completas fueron publicadas en 1897 por la Academia de Ciencias de Baviera.

Isaac Newton (Woolsthorpe, Lincolnshire; 4 de enero de 1643 GR Kensington, Londres; 31 de marzo de 1727 GR) fue un físico, filósofo, teólogo, inventor, alquimista y matemático inglés, autor de los Philosophiae naturalis principia mathematica, más conocidos como los Principia, donde describió la ley de la gravitación universal y estableció las bases de la mecánica clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos científicos destacan los trabajos sobre la naturaleza de la luz y la óptica (que se presentan principalmente en su obra Opticks) y el desarrollodel cálculo matemático.Newton comparte con Leibniz el crédito por el desarrollo del cálculo integral y diferencial, que utilizó para formular sus

Entre sus hallazgos científicos se encuentran el descubrimiento de que el espectro de color que se observa cuando la luz blanca pasa por un prisma es inherente a esa luz, en lugar de provenir del prisma (como había sido postulado por Roger Bacon en el siglo XIII); su argumentación sobre la posibilidad de que la luz estuviera compuesta por partículas; su desarrollo de una ley de convección térmica, que describe la tasa de enfriamiento de los objetos expuestos al aire; sus estudios sobre la velocidad del sonido en el aire; y su propuesta de una teoría sobre el origen de las estrellas. Fue también un pionero de la mecánica de fluidos, estableciendo una ley sobre la viscosidad. Newton fue el primero en demostrar que las leyes naturales que gobiernan el movimiento en la Tierra y las que gobiernan el movimiento de los cuerpos celestes son las mismas. Es, a menudo, calificado como el científico más grande de todos los tiempos, y su obra como la culminación de la revolución científica. El matemático y físico matemático Joseph Louis Lagrange (1736–1813), dijo que «Newton fue el más grande genio que ha existido y también el más afortunado dado que sólo se puede encontrar una vez un sistema que rija el mundo».

9


Método de Lagrange

MÉTODO DE LAGRANGE El método de los Multiplicadores de Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. El método dice que los puntos donde la función tiene un extremo, condicionado con k restricciones, están entre los puntos estacionarios de una nueva función sin restricciones construida como una combinación lineal de la función y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores. La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientes de la función sean iguales a cero.

Historia del Método de Lagrange El método lagrangian (también conocido como multiplicadores lagrangian) lo propuso Joseph Louis Lagrange (1736-1813), un matemático nacido en Italia. Sus multiplicadores lagrangian tienen aplicaciones en una variedad de campos, incluyendo el físico, astronomía y económica. La lectura de una obra del astrónomo inglés Edmund Halley despertó su interés, y, tras un año de incesante trabajo, era ya un matemático consumado. Nombrado profesor de la Escuela de Artillería, en 1758 fundó una sociedad, con la ayuda de sus alumnos, que fue incorporada a la Academia de Turín. En su obra Miscellanea taurinensia, escrita por aquellos años, obtuvo, entre otros resultados, una ecuación diferencial general del movimiento y su adaptación para el caso particular del movimiento rectilíneo, y la solución a muchos problemas de dinámica mediante el cálculo de variantes.

Realizo un trabajo sobre el equilibrio lunar, donde razonaba la causa de que la Luna siempre mostrara la misma cara, le supuso la concesión, en 1764, de un premio por la Academia de Ciencias de París. En 1795 se le concedió una cátedra en la recién fundada École Normale, que ocupó tan solo durante cuatro meses. Dos años más tarde, tras la creación de la École Polytechnique, Lagrange fue nombrado profesor, y quienes asistieron a sus clases las describieron como «perfectas en forma y contenido». Sus enseñanzas sobre cálculo diferencial forman la base de sus obras Teoría de las funciones analíticas y Resolución de ecuaciones numéricas (1798). En 1810 inició una revisión de su Teoría, pero sólo pudo concluir dos terceras partes antes de su muerte.

10


Algo Mas … Joseph-Louis Lagrange, bautizado como Giuseppe Lodovico Lagrangia, también llamado Giuseppe Luigi Lagrangia o Lagrange (25 de enero de 1736 en Turín - 10 de abril de 1813 en París) fue un físico, matemático y astrónomo italiano que después vivió en Prusia y Francia. Lagrange trabajó para Federico II de Prusia, en Berlín, durante veinte años. Lagrange demostró el teorema del valor medio, desarrolló la mecánica Lagrangiana y tuvo una importante .contribución en astronomía. Entre sus Frases y Citas Celebres se encuentran

“Yo consideraba completamente inútil la lectura de grandes tratados de análisis puro: un número demasiado grande de métodos pasan una vez ante nuestros ojos. Es en los trabajos de aplicación donde uno debe estudiarlos, allí se juzga su utilidad y se evalúa la manera de hacer uso de ellos” “Sólo hizo falta un instante para cortar su cabeza, pero es poco probable que cien años sean suficientes para que surja una igual”

[Sobre Antoine-Laurent de Lavoisier (26 de agosto de 1743 — 8 de mayo de 1794), químico francés, considerado el creador de la química moderna.] “El lector no encontrará figuras en este trabajo. Los métodos que he establecido no requieren construcciones ni razonamientos geométricos o mecánicos: sólo operaciones algebraicas, sujetas a una regla de procedimiento regular y uniforme”

11


Método de Lagrange

ETAPAS PARA APLICAR EL MÉTODO DE LAGRANGE Se plantea un nuevo problema, el de optimizar una función sujeta a una restricción de igualdad:

.

Para encontrar la solución a este nuevo tipo de problema, se debe formar una nueva función F que debe ser formada por: (1) estableciendo la restricción igual a cero (2) multiplicándolo por λ (el multiplicador de Lagrange) (3) sumando el producto a la función original:

Aquí es llamada

la función Lagrangiana,

es la función objetivo u original, y es

e la restricción. Puesto que la

restricción es siempre igual a cero, el produc-

to También es igual a cero y la

suma de tal término no cambia el valor de la función objetivo. Los valores críticos (para los cuales la función es optimizada) son obtenidos tomando las derivadas parciales de F (con respecto a cada una de las tres variables independientes) e igualándolas a cero. Es decir, simultáneamente: Donde F1 expresa una derivada parcial ∂ F/ ∂ x1

Ejemplo 2 2 ¿Cuáles son los valores máximos y mínimos que puede tener una función f (x , y ) = x + 2 y sobre el círcu-

lo sobre el

círculo

x2 + y

2

= 1

?

Solución: Se pide calcular los valores extremos de la función

f (x , y ) = x 2 + 2 y 2 sujeta a la restricción

g (x , y ) = x 2 + y 2 = 1

12


Método de Lagrange

Calculamos los Gradientes:

∇f = (2 x,4 y ) ∇g = (2 x,2 y ) Las ecuaciones de Lagrange pueden escribirse:

2x = λ 2x

……ec nº 1

4y = λ2y

x

2

+ y

……ec nº 2

2

= 1

…..…ec nº3

Partiendo de la ecuación Nº 1 se tiene:

2x = λ 2x 2x − λ 2x = 0 2 x(1 − λ ) = 0 x=0

y λ = 1 , entonces se verifican estos dos valores en las otras ecuaciones.

Si x=0 en la ec nº4 se obtiene: Luego si λ

= 1

, en la ec nº2 se tiene y=0, y luego en la ec nº3,

Como consecuencia, (0,1) (0,-1) (1,0) (-1,0) Al evaluar a

y = ±1

f (x , y )

f (x , y )

x =

± 1

tal vez tiene valores extremos en los puntos:

en esos cuatro puntos se encuentra que:

f (0,1) = 2 f (0,−1) = 2 f (1,0 ) = 1 f (−1,0) = 1 Por consiguiente, hay dos valores máximos en los puntos (0,1); (0,-1) y dos valores mínimos en los puntos: (1,0) y (-1,0).

13


Algo Mas … La derivada de una función es una medida de la rapidez con la que cambia el valor de dicha función matemática, según cambie el valor de su variable independiente. La derivada de una función es un concepto local, es decir, se calcula como el límite de la rapidez de cambio media de la función en un cierto intervalo, cuando el intervalo considerado para la variable independiente se torna cada vez más pequeño. Por ello se habla del valor de la derivada de una cierta función en un punto dado. Un ejemplo habitual aparece al estudiar el movimiento: si una función representa la posición de un objeto con respecto al tiempo, su derivada es la velocidad de dicho objeto. Un avión que realice un vuelo transatlántico de 4500 km entre las 12:00 y las 18:00, viaja a una velocidad media de 750 km/h. Sin embargo, puede estar viajando a velocidades mayores o menores en distintos tramos de la ruta. En particular, si entre las 15:00 y las 15:30 recorre 400 km, su velocidad media en ese tramo es de 800 km/h. Para conocer su velocidad instantánea a las 15:20, por ejemplo, es necesario calcular la velocidad media en intervalos de tiempo cada vez menores alrededor de esta hora: entre las 15:15 y las 15:25, entre las 15:19 y las 15:21, etc. La derivada de una función f en un punto x se denota como f′(x). La función cuyo valor en cada punto x es esta derivada es la llamada función derivada de f, denotada por f′. El proceso de encontrar la derivada de una función se denomina diferenciación, y es una de las herramientas principales en el área de las matemáticas conocida como cálculo infinitesimal. Concretamente, el que trata de asuntos vinculados con la derivada se denomina cálculo diferencial

14


Método de Lagrange

OBJETIVOS Y CARACTERISTICAS DEL MÉTODO DE LAGRANGE Objetivos ♦

Identificar, a través de los simuladores, los puntos (x,y) sobre la curva correspondiente a la función restricción donde la función principal tiene extremos.

Interpretar gráficamente los resultados obtenidos empleando el método de multiplicadores de Lagrange.

Aproximar las soluciones del problema a partir de la observación en el simulador, de las curvas de nivel de la función principal y la curva correspondiente a la función condicionante.

Adquirir habilidad en la resolución de problemas de optimización en un ambiente computacional.

Características del Método ♦

Todos los óptimos que verifiquen las condiciones de regularidad establecidas tienen asociados los correspondientes multiplicadores.

El teorema de Lagrange establece una condición necesaria de optimalidad (bajo las condiciones de regularidad).

El método de eliminación de variables no resulta operativo cuando el problema tiene muchas restricciones o las restricciones son complejas, por lo que resulta muy útil éste método.

Los Multiplicadores de Lagrange es un método alternativo que además proporciona más información sobre el problema.

15


Método de Lagrange

CAMPO DE APLICACIÓN DEL MÉTODO DE LAGRANGE Existen en todas las ramas de la ciencia, en la Física, en la Matemática, en la Química, en la Astronomía, en Biología, en Economía etc. Situaciones en las que conociendo un conjunto de datos experimentales en un cierto intervalo de la variable independiente, esto es, conociendo una cierta cantidad de datos tabulados, se hace preciso encontrar una función que verifique todos esos datos y permita, por consiguiente, predecir la existencia de otros valores con la aproximación adecuada. El método de la interpolación de Lagrange es de gran importancia en el análisis numérico.

Significado Económico Los consumidores y negocios se esfuerzan por maximizar su utilidad. En el lado del consumidor, esto significa obtener el nivel mas alto de satisfacción de bienes y servicios. Para los negocios, la utilidad máxima significa maximizar el beneficio. Los consumidores tienen ingresos limitados para comprar los bienes y servicios que deseen y las empresas tiene solo la tierra, trabajo y capital limitado para crear sus productos. Estos recursos limitados, presentan restricciones. El reto, entonces, es la forma de lograr la satisfacción o beneficio máximo en sus restricciones dadas. Otro reto para las empresas es el de minimizar los costos de producción.

Función El método de Lagrange aplica calculo diferencial, implicando el calculo de derivadas parciales, hasta temas de optimización restringidas. El propietario de un negocio, por ejemplo, puede utilizar esta técnica para maximizar el beneficio o minimizar los costos dados que el negocio tiene solo una cierta cantidad de dinero que invertir. Un consumidor hipotético, que, por ejemplo, deriva la utilidad de coleccionar libros y CDs, podría utilizar este método para determinar la forma de obtener el numero optimo de libros y CDs, dado que solo tiene US$200 de ingresos disponibles para gastar.

Identificación El multiplicador de Lagrange, representado en la ecuación por la letra minúscula griega lambda (λ), representa la tasa de cambio en la utilidad relativa al cambio en la restricción de presupuesto. En economía , esto se conoce como el valor o la utilidad marginal, el aumento en la utilidad ganada de un aumento en la restricción del presupuesto.

Efectos Basado en los resultados de un análisis de Lagrange, una persona o empresa tiene una base empírica para tomar decisiones sobre la maximización de utilidad continuada en los cambios de las restricciones externas. Un incremento del precio en un articulo favorito, por ejemplo, podría llevar a que el consumidor compre una cantidad mas baja de ese articulo o trabajar mas horas para conseguir mas ingresos y alcanzar el precio mas alto. 16


Nota Curiosa ... Se cuenta que en los años 20 cuando Albert Einstein empezaba a ser conocido por su teoría de la relatividad, era con frecuencia solicitado por las universidades para dar conferencias. Dado que no le gustaba conducir y sin embargo el coche le resultaba muy cómodo para sus desplazamientos, contrató los servicios de un chofer.

Después de varios días de viaje, Einstein le comentó al chofer:

A lo que el chofer contesto:

Einstein le tomó la palabra y antes de llegar al siguiente lugar, intercambiaron sus ropas y Einstein se puso al volante.

17


Nota Curiosa ... Llegaron a la sala donde se iba a celebrar la conferencia y como ninguno de los académicos presentes conocía a Einstein, no se descubrió el engaño. El chofer expuso la conferencia que había oído a repetir tantas veces a Einstein.

Al final, un profesor en la audiencia le hizo una pregunta.

El chofer no tenía ni idea de cual podía ser la respuesta,

sin embargo tuvo un golpe de inspiración, ¿Qué crees que le contestó?

18


Ejercicios para Resolver 1) Determine las dimensiones de una caja rectangular con la capacidad máxima, es decir con el máximo volumen, si el área de la superficie total será 64 cm. cuadrados.

2) Determine cual es la distancia más corta entre el plano cuya ecuación es x + 2 y + 3 z = 12 y el punto origen del sistema . ℜ 3 3) Se desea fabricar una caja de cartón donde el material de los lados y la tapa es de Bs 1/metro cuadrado y el costo del material del fondo es de Bs 3/ metro cuadrado. Determine las dimensiones que debe tener la caja para que su volumen sea de 2 metros cúbicos y su costo sea mínimo.

Respuestas 1. 2. 3.

3

V=xyz= 323 323 323= 323 , cm3   ≅ 10 , 29 ≅ 3 .21 12 Bolívares

19


DivulgaMAT es una página que lleva el subtítulo Centro Virtual de Divulgación de las Matemáticas, dejando obviado su objetivo principal. La idea de la página -tal como yo lo veo- es la de un museo de las Matemáticas en red. Una de las exposiciones virtuales se titula "El Rostro Humano de las Matemáticas". Una divertida exposición de caricaturas de matemáticos.

El próximo 25 de julio Tomás y Carmen van a contraer matrimonio. Como regalo les vamos a hacer 4 trasferencias de 55, 89, 233 y 377 euros. ¿Sabrías decir que relación hay entre estos 4 números? CRUCIGRAMA MENTAL : Tienes que encontrar 4 números de 2 cifras/dígitos que cumplen: Horizontales: Es un Múltiplo de 5 y 3 - Es un múltiplo de 9 Verticales: Es un múltiplo de 4 - Es un múltiplo de 11

20


Ejercicios como caso práctico de la Revista Digital 9. Una empresa fabrica dos tipos de esquíes, los modelos Ligero y Alpino. Supóngase que la función de costos conjuntos de producir x pares de modelos Ligero y y pares del modelo Alpino por semana es:

Donde c está expresado en dólares. Determinar los costos marginales pretar los resultados.

cuando x=100 y y=50, e inter-

Solución: Los costos marginales son: Derivamos en función de x y luego en función de y

Luego, sustituimos los valores cuando x=100 y y=50 respectivamente , Así:

(I)

(II) Interpretación: La ecuación (I) implica que al aumentar la producción del modelo Ligero a 100 , mientras se mantiene en 50 la producción de Alpino, aumentan los costos aproximadamente en $89. La ecuación (II) implica que al aumentar la producción del modelo Alpino a 50 mientras se mantiene en 100 la producción del Ligero, aumentan los costos aproximadamente en $85. De hecho, como es una función constante, el costo marginal con respecto ay es de $85 en todos los niveles de producción.

21


10. Un fabricante de un juguete popular ha determinado que su función de producción es

donde l es el número de horas de trabajo por semana y k el capital (expresado en cientos de dólares por semana) requerido para la producción semanal de P gruesas del juguete (una gruesa son 144 unidades). Determinar las funciones de productividad marginal y evaluarlas cuando l = 400 y k = 16. Interpretar los resultados.

Solución: La función

Es igual Entonces: Derivamos en función de l y luego en función de k

Luego, evaluamos estas ecuaciones cuando l=400 y k=16

Interpretación: Así, si l=400 y k=16, al incrementar l a 4001 y mantener k en 16, aumentará las producción en aproximadamente de gruesa. Pero si k se incrementa a 17 y se mantiene l en 400, la producción aumenta en alrededor de De gruesa.

22

Optimizacion sin restricciones con mas de una variable  
Optimizacion sin restricciones con mas de una variable  
Advertisement