Matrice hessiana

In analisi matematica, la matrice hessiana di una funzione di n {\displaystyle n} variabili a valori in un campo di scalari, anche detta matrice di Hesse o semplicemente hessiana (o ultragradiente), è la matrice quadrata n × n {\displaystyle n\times n} delle derivate parziali seconde della funzione. Il nome è dovuto a Ludwig Otto Hesse.

Definizione

Data una funzione reale di n {\displaystyle n} variabili reali f : R n R {\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {R} } , se tutte le sue derivate parziali seconde esistono allora si definisce matrice hessiana della funzione f {\displaystyle f} la matrice H f ( x ) {\displaystyle \operatorname {H} f(\mathbf {x} )} data da:

H f = [ 2 f x 1 2 2 f x 1 x 2 2 f x 1 x n 2 f x 2 x 1 2 f x 2 2 2 f x 2 x n 2 f x n x 1 2 f x n x 2 2 f x n 2 ] , ( H f ) i j = 2 f x i x j , {\displaystyle \displaystyle \operatorname {H} _{f}={\begin{bmatrix}\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}^{2}}}&\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}\,\partial x_{2}}}&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}\,\partial x_{n}}}\\\\\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}\,\partial x_{1}}}&\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}^{2}}}&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}\,\partial x_{n}}}\\\\\vdots &\vdots &\ddots &\vdots \\\\\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}\,\partial x_{1}}}&\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}\,\partial x_{2}}}&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}^{2}}}\end{bmatrix}},\qquad (\operatorname {H} f)_{ij}={\frac {\partial ^{2}f}{\partial x_{i}\,\partial x_{j}}},}

cui si associa l'operatore:

H i j = 2 x i x j . {\displaystyle \operatorname {H} _{ij}={\frac {\partial ^{2}}{\partial x_{i}\,\partial x_{j}}}.}

L'hessiana di fatto rappresenta la jacobiana del gradiente, sinteticamente:

H = J . {\displaystyle \operatorname {H} =\operatorname {J} \cdot \nabla .}

Derivate miste e simmetria dell'hessiana

Lo stesso argomento in dettaglio: Teorema di Schwarz.

Gli elementi fuori dalla diagonale principale nell'hessiana sono le derivate miste della funzione f {\displaystyle f} . Con opportune ipotesi, vale il teorema seguente:

x ( f y ) = y ( f x ) . {\displaystyle {\frac {\partial }{\partial x}}\left({\frac {\partial f}{\partial y}}\right)={\frac {\partial }{\partial y}}\left({\frac {\partial f}{\partial x}}\right).}

Questa uguaglianza si scrive anche come:

x y f = y x f . {\displaystyle \partial _{xy}f=\partial _{yx}f.}

In termini formali: se tutte le derivate seconde di f {\displaystyle f} sono continue in una regione Ω {\displaystyle \Omega } , allora l'hessiana di f {\displaystyle f} è una matrice simmetrica in ogni punto di Ω {\displaystyle \Omega } . La veridicità di questa affermazione è nota come teorema di Schwarz.

Punti critici e discriminante

Se il gradiente della funzione f {\displaystyle f} è nullo in un punto x {\displaystyle \mathbf {x} } appartenente al dominio della funzione, allora f {\displaystyle f} in x {\displaystyle \mathbf {x} } ha un punto critico. Il determinante dell'hessiana (detto semplicemente hessiano) in x {\displaystyle \mathbf {x} } è anche detto discriminante in x {\displaystyle \mathbf {x} } . Se questo determinante è zero allora x {\displaystyle \mathbf {x} } è chiamato punto critico degenere della f {\displaystyle f} . Negli altri punti viene chiamato non degenere.

Test per la derivata seconda

Il seguente criterio può essere applicato in un punto critico x {\displaystyle \mathbf {x} } non degenere:

  • se l'hessiana è una matrice definita positiva in x {\displaystyle \mathbf {x} } , allora f {\displaystyle f} ha un minimo locale in x {\displaystyle \mathbf {x} } ;
  • se l'hessiana ha almeno due autovalori di segno opposto allora x {\displaystyle \mathbf {x} } è un punto di sella per f {\displaystyle f} .

Altrimenti il test è inconclusivo. Si noti che per hessiane semidefinite positive e semidefinite negative il test è inconclusivo. Quindi, possiamo vedere di più dal punto di vista della teoria di Morse.

Tenuto conto di quanto è stato appena detto, il test per le derivate seconde per funzioni di una e due variabili sono semplici.

In una variabile, l'hessiana contiene appena una derivata seconda:

  • se questa è positiva allora x {\displaystyle x} è un minimo locale, se questa è negativa allora x {\displaystyle x} è un massimo locale;
  • se questa è zero allora il test è inconclusivo.

In due variabili, può essere usato il determinante, perché è il prodotto degli autovalori:

  • se questo è positivo allora gli autovalori sono entrambi positivi, o entrambi negativi;
  • se questo è negativo allora i due autovalori hanno differente segno;
  • se questo è zero, allora il test della derivata seconda è inconclusivo.

Funzioni a valori vettoriali

Se f {\displaystyle f} è invece una funzione a valori vettoriali, cioè se

f : R m R n , {\displaystyle f\colon \mathbb {R} ^{m}\to \mathbb {R} ^{n},}

allora il vettore delle derivate parziali seconde non è una matrice, ma un tensore di rango 3.

Bibliografia

  • Nicola Fusco, Paolo Marcellini, Carlo Sbordone, Analisi Matematica Due, Liguori Editore, 1996, ISBN 88-207-2675-0.
  • (EN) Binmore e Davies, Calculus Concepts and Methods, Cambridge University Press, 2007, p. 190.

Voci correlate

Collegamenti esterni

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica