Confusión con los multiplicadores de Lagrange

Estoy resolviendo numéricamente un problema de optimización de la forma: Maximizar z sujeto a F ( α , z ) = C . Usando el método de los multiplicadores de Lagrange, primero escribo el Lagraniano

L ( α , z , λ ) = z λ ( F ( α , z ) C ) ,
por lo que al igualar el gradiente a cero se obtiene el sistema de ecuaciones
λ α F ( α , z ) = 0 λ z F ( α , z ) = 1 F ( α , z ) = C .
Aquí está mi confusión: ya he probado que z F ( α , z ) > 0 para todos α y z ; por lo tanto, de acuerdo con la segunda ecuación λ siempre será alguna constante positiva. Si este es el caso, ¿por qué necesito el multiplicador de Lagrange? ¿No sería suficiente simplemente resolver el sistema
α F ( α , z ) = 0 F ( α , z ) = C .
Procedí a resolver (numéricamente) este sistema de dos ecuaciones y efectivamente verifiqué que la solución resuelve mi problema de maximización. Entonces, ¿necesito el sistema original de tres ecuaciones? ¿Qué me estoy perdiendo?

Respuestas (1)

Sus observaciones son correctas, aunque se aplican muy específicamente a su problema. No es raro que el método de los multiplicadores de Lagrange genere ecuaciones que ya conocía o que son inútiles (como 0 = 0 ).

Lo que es cierto en general es que nunca tienes que usar el método de los multiplicadores de Lagrange. Siempre es posible (quizás no algebraicamente, pero definitivamente numéricamente) usar la restricción para eliminar una de las variables, pero este método puede ser desventajoso por un par de razones (por ejemplo, puede complicar los cálculos). Para su problema, en muchos casos podríamos usar la restricción F ( α , z ) = C y resolver para z como una función de C y α y luego establecer la derivada de z con respecto a α a cero como en un problema normal de extremización de una variable. Esto conducirá a exactamente las mismas ecuaciones que ya ha deducido.

La moraleja de la historia? No existe la forma más eficiente para resolver muchos problemas de extremización; dependerá de la naturaleza del problema.