To install click the Add extension button. That's it.

The source code for the WIKI 2 extension is being checked by specialists of the Mozilla Foundation, Google, and Apple. You could also do it yourself at any point in time.

4,5
Kelly Slayton
Congratulations on this excellent venture… what a great idea!
Alexander Grigorievskiy
I use WIKI 2 every day and almost forgot how the original Wikipedia looks like.
Live Statistics
Spanish Articles
Improved in 24 Hours
What we do. Every page goes through several hundred of perfecting techniques; in live mode. Quite the same Wikipedia. Just better.
.
Leo
Newton
Brights
Milds

# Matriz hessiana

## De Wikipedia, la enciclopedia libre

En matemática, la matriz hessiana de una función escalar o campo escalar ${\displaystyle f}$ de ${\displaystyle n}$ variables, es la matriz cuadrada de tamaño ${\displaystyle n\times n}$, de las segundas derivadas parciales.

Esta matriz debe su nombre al matemático alemán Ludwig Otto Hesse y fue introducido por James Joseph Sylvester.

## Definición

{\displaystyle {\begin{aligned}&f:\mathbb {R} ^{n}\to \mathbb {R} \\&\;\;\;\;\;\;\;x\to f(x)\\\end{aligned}}}

cuyas segundas derivadas parciales existen y son continuas sobre el dominio de la función entonces la matriz hessiana de ${\displaystyle f}$ denotada por ${\displaystyle H_{f}(\mathbf {x} )}$, ${\displaystyle H_{f}}$ o ${\displaystyle H(f)}$ es una matriz cuadrada ${\displaystyle n\times n}$ definida como

${\displaystyle (H_{f})_{i,j}={\frac {\partial ^{2}f}{\partial x_{i}\,\partial x_{j}}}}$

esto es

${\displaystyle H_{f}={\begin{bmatrix}\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}^{2}}}&\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}\partial x_{2}}}&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}\partial x_{n}}}\\\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}\partial x_{1}}}&\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}^{2}}}&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}\partial x_{n}}}\\\vdots &\vdots &\ddots &\vdots \\\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}\partial x_{1}}}&\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}\partial x_{2}}}&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}^{2}}}\end{bmatrix}}}$

Además, se tiene que si ${\displaystyle f:A\to \mathbb {R} }$ con ${\displaystyle A\subseteq \mathbb {R} ^{n}}$ un conjunto abierto y ${\displaystyle f}$ clase ${\displaystyle {\mathcal {C}}^{2}}$, entonces la matriz hessiana está bien definida, y en virtud del teorema de Clairaut (o teorema de Schwarz), es una matriz simétrica.

El determinante de la matriz Hessiana es conocido como determinante Hessiano.

## Aplicación de la matriz hessiana

Sea ${\displaystyle A\subseteq \mathbb {R} ^{n}}$ un conjunto abierto y ${\displaystyle f:A\to \mathbb {R} }$ una función con segundas derivadas parciales continuas:

1. ${\displaystyle f\,}$ es convexa si y solo si ${\displaystyle \forall \;a\in A}$, la matriz hessiana ${\displaystyle H_{f}(a)\,}$ es semidefinida positiva.
2. Si ${\displaystyle \forall \;a\in A}$ la matriz hessiana ${\displaystyle H_{f}(a)\,}$es positiva-definida entonces ${\displaystyle f}$ es estrictamente convexa.
• Si ${\displaystyle f}$ es una función convexa, entonces cualquier punto en que todas las derivadas parciales son cero, es un mínimo local.
3. ${\displaystyle f}$ es cóncava si y solo si ${\displaystyle \forall \;a\in A}$, la matriz hessiana ${\displaystyle H_{f}(a)\,}$ es semidefinida negativa.
4. Si ${\displaystyle \forall \;a\in A}$ la matriz hessiana ${\displaystyle H_{f}(a)\,}$ es negativa-definida, entonces ${\displaystyle f}$ es estrictamente cóncava.
• Si ${\displaystyle f\,}$ es una función cóncava, entonces cualquier punto en que todas las derivadas parciales son cero, es un máximo local.

### Método para determinar el carácter de los puntos críticos

Se verá a continuación cómo hallar los puntos críticos (máximos, mínimos y puntos de inflexión -o silla o de ensilladura) de una función ${\displaystyle f}$ de múltiples variables.

1. Se igualan las derivadas parciales primeras a cero.
2. Se resuelven las ecuaciones anteriores y se obtienen las coordenadas de los puntos críticos.
3. Se construye la matriz hessiana (derivadas segundas parciales).
4. Se sustituyen los puntos críticos en la matriz hessiana para obtener tantas matrices como puntos críticos tengamos.
5. Dependiendo del tipo de matriz resultante de evaluar la matriz Hessiana en los diferentes puntos críticos, estos puntos se pueden evaluar mediante el criterio de Sylvester:
• Si todos los menores principales son mayores que 0, o sea, |Hi|>0 para ${\displaystyle i=1,2,\dots ,n}$ ${\displaystyle f}$ alcanza el mínimo relativo en el punto.
• Si los menores principales de índice par son mayores que 0 y los de índice impar son menores que 0, o sea, |Himpar|<0 y |Hpar|>0 ∀i=1,...,n ƒ alcanza el máximo relativo en el punto.
• Si los menores principales son distintos de 0, es decir, |Hi|≠0 ∀i=1,...,n y no es ninguno de los casos anteriores, es un punto de silla.
Cuando algún |Hi|=0, no se puede determinar nada, por lo que se debe hacer un estudio particular. Para n=2 el criterio se mejora en el sentido de que si |H1|=0 y |H2|<0 ${\displaystyle f}$ tiene un punto de silla en el punto.

De forma análoga podemos evaluar los extremos relativos de un campo escalar ${\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} }$ estudiando los autovalores de su matriz hessiana.

Teorema 9.6(CALCULUS volumen 2. Tom M.Apostol): "Sea ${\displaystyle f}$ un campo escalar con derivadas parciales segundas continuas Dijf en una ${\displaystyle n}$-bola B(a), y designemos con ${\displaystyle H({\textbf {a}})}$ la matriz hessiana en el punto estacionario a. Tenemos entonces:

1. Si todos los autovalores de ${\displaystyle H({\textbf {a}})}$ son positivos, ${\displaystyle f}$ tiene un mínimo relativo en a.
2. Si todos los autovalores de ${\displaystyle H({\textbf {a}})}$ son negativos, ${\displaystyle f}$ tiene un máximo relativo en a.
3. Si ${\displaystyle H({\textbf {a}})}$ tiene autovalores positivos y negativos, ${\displaystyle f}$ tiene un punto de ensilladura en a."

El caso particular en el que la función a evaluar grafica una superficie en ${\displaystyle \mathbb {R} ^{3}}$, ${\displaystyle z=f(x,y)}$ y tiene segundas derivadas continuas, se pueden estudiar los puntos críticos evaluando la matriz hessiana en ellos y luego utilizando el criterio de determinación de extremos. Si ${\displaystyle (a,b)}$ es un punto crítico de ${\displaystyle f}$, (${\displaystyle f_{x}(a,b)=0}$ y ${\displaystyle f_{y}(a,b)=0}$) entonces:

- Si el determinante de la matriz hessiana evaluado en el punto ${\displaystyle (a,b)}$ es mayor que 0, |H|>0, y ${\displaystyle f_{xx}(a,b)<0}$, decimos que ${\displaystyle f}$ alcanza un máximo relativo en ${\displaystyle (a,b)}$.

- Si el determinante de la matriz hessiana evaluado en el punto ${\displaystyle (a,b)}$ es mayor que 0, |H|>0, y ${\displaystyle f_{xx}(a,b)>0}$, decimos que ${\displaystyle f}$ alcanza un mínimo relativo en ${\displaystyle (a,b)}$.

- Si el determinante de la matriz hessiana evaluado en el punto ${\displaystyle (a,b)}$ es menor que 0, |H|<0, decimos que ${\displaystyle f(a,b)}$ es un Punto de silla.

- Si el determinante de la matriz hessiana evaluado en el punto ${\displaystyle (a,b)}$ es igual a 0, |H|=0, el criterio no concluye resultado alguno.

## Generalizaciones

La matriz hessiana orlada es una variante de la matriz hessiana utilizada en problemas de optimización restringida. El determinante de sus principales menores se utiliza como criterio para determinar si un punto crítico de una función es un mínimo, máximo, punto silla o no determinado (extremos condicionados).[1]

### Aplicación bilineal hessiana

El concepto de matriz hessiana puede generalizarse a espacios de dimensión infinita, concretamente a aplicaciones definidas sobre espacios vectoriales normados. Si una aplicación (o funcional) está definida es diferenciable en el sentido de Fréchet y su diferencial jacobiana también es diferenciable en el sentido de Fréchet puede definirse una forma bilineal continua (y por tanto acotada) sobre el espacio normado que generaliza la matriz hessiana.

Se dice que una aplicación ${\displaystyle f:\Omega \in X\to Y}$ entre espacios vectoriales normados ${\displaystyle X,Y}$ es diferenciable si existe una aplicación lineal continua ${\displaystyle L_{a}\in {\mathcal {L}}(X,Y)}$ tal que:

${\displaystyle \lim _{h\to 0}{\frac {\|f(a+h)-f(a)-L_{a}(h)\|_{Y}}{\|h\|_{X}}}=0}$

En ese caso se escribe:

${\displaystyle \mathrm {D} f(a)h\equiv L_{a}(h)}$

Puede probarse que ${\displaystyle {\mathcal {L}}(X,Y)}$ es a su vez otro espacio vectorial normado con la norma:

${\displaystyle \|A\|_{{\mathcal {L}}(X,Y)}:=\sup _{0\neq x\in X}{\frac {\|Ax\|_{Y}}{\|x\|_{X}}}}$

La segunda derivadas cuando existe es:

${\displaystyle \mathrm {D} ^{2}f(a):=\mathrm {D} (\mathrm {D} f(a))\in {{\mathcal {L}}(X,{{\mathcal {L}}(X,Y)})}}$

La forma bilineal hessiana viene dada por:

${\displaystyle H_{f}(a)(h,k):=(\mathrm {D} ^{2}f(a)h)k,\qquad h,k\in X,\ H_{f}(a)\in {\mathcal {L}}(X\times X,Y)\approx {\mathcal {L}}(X,{{\mathcal {L}}(X,Y)})}$

## Referencias

1. Marsden, Jerrold E.; Tromba, Anthony J. (2004), Cálculo vectorial, Madrid: Pearson Educación S.A., ISBN 978-84-7829-069-7., página 230

## Enlaces externos

Esta página se editó por última vez el 27 jun 2021 a las 13:56.
Basis of this page is in Wikipedia. Text is available under the CC BY-SA 3.0 Unported License. Non-text media are available under their specified licenses. Wikipedia® is a registered trademark of the Wikimedia Foundation, Inc. WIKI 2 is an independent company and has no affiliation with Wikimedia Foundation.