Exponencial matricial

Em matemática, a exponencial matricial é uma função matricial definida no conjunto das matrizes quadradas e possui propriedades semelhantes à função exponencial definida nos números reais (ou complexos). Mais abstratamente falando a exponencial matricial estabelece uma conexão entre a álgebra de Lie das matrizes e o seu correspondente grupo de Lie.

Seja A {\displaystyle A\,} uma matriz real ou complexa n × n {\displaystyle n\times n\,} , define-se e A = exp ( A ) {\displaystyle e^{A}=\exp(A)\,} pela seguinte série de potências:

e A := I + n = 1 A n n ! {\displaystyle e^{A}:=I+\sum _{n=1}^{\infty }{\frac {A^{n}}{n!}}\,} , onde I {\displaystyle I\,} é a matriz identidade

A convergência desta série é garantida pelo teste M de Weierstrass.

Propriedades

Sejam A {\displaystyle A\,} e B {\displaystyle B\,} matrizes quadradas n × n {\displaystyle n\times n\,} e a {\displaystyle a\,} e b {\displaystyle b\,} números reais ou complexos arbitrários. Denotamos por I {\displaystyle I\,} a matriz identidade n × n {\displaystyle n\times n\,} e por O {\displaystyle O\,} a matriz nula de mesmas dimensões. A {\displaystyle A^{*}\,} indica a matriz transposta conjugada de A {\displaystyle A\,} e A T {\displaystyle A^{T}\,} denota a matriz transposta de A {\displaystyle A\,} . São válidas as seguintes propriedades:

  • e 0 = I {\displaystyle e^{0}=I\,}
  • e a A e b A = e ( a + b ) A {\displaystyle e^{aA}e^{bA}=e^{(a+b)A}\,}
  • e A e A = I {\displaystyle e^{A}e^{-A}=I\,}
  • Se A B = B A {\displaystyle AB=BA\,} então e A e B = e A + B {\displaystyle e^{A}e^{B}=e^{A+B}\,}
  • Se B {\displaystyle B\,} é uma matriz invertível então e B A B 1 = B e A B 1 {\displaystyle e^{BAB^{-1}}=Be^{A}B^{-1}\,}
  • det ( e A ) = e tr ( A ) {\displaystyle \det(e^{A})=e^{{\hbox{tr}}(A)}\,} , onde det ( e A ) {\displaystyle \det(e^{A})\,} é o determinante de e A {\displaystyle e^{A}\,} e tr A {\displaystyle {\hbox{tr}}A\,} é o traço de A {\displaystyle A\,}
  • e ( A T ) = ( e A ) T {\displaystyle e^{(A^{T})}={(e^{A})}^{T}\,} . Disto segue que se A {\displaystyle A\,} é uma matriz simétrica e A {\displaystyle e^{A}\,} também o é. Se A {\displaystyle A\,} é uma matriz antissimétrica é uma matriz ortogonal.
  • e ( A ) = ( e A ) {\displaystyle e^{(A^{*})}={(e^{A})}^{*}\,} . Disto segue que se A {\displaystyle A\,} é uma matriz hermitiana e A {\displaystyle e^{A}\,} também o é. Se A {\displaystyle A\,} é uma matriz anti-hermitiana é uma matriz unitária.

Exemplo no cálculo da exponencial de uma matriz

Imaginemos que queremos calcular e A {\displaystyle e^{A}} sabendo que

A = [ 2 1 0 0 ] {\displaystyle A={\begin{bmatrix}2&1\\0&0\end{bmatrix}}}

Calculemos A 2 , A 3 . . . A n {\displaystyle A^{2},A^{3}...A^{n}}

A 2 = [ 2 1 0 0 ] [ 2 1 0 0 ] = [ 4 2 0 0 ] , A 3 = A 2 A = [ 8 4 0 0 ] {\displaystyle A^{2}={\begin{bmatrix}2&1\\0&0\end{bmatrix}}{\begin{bmatrix}2&1\\0&0\end{bmatrix}}={\begin{bmatrix}4&2\\0&0\end{bmatrix}},A^{3}=A^{2}A={\begin{bmatrix}8&4\\0&0\end{bmatrix}}}
A n = [ 2 n 2 n 1 0 0 ] , n 0 {\displaystyle A^{n}={\begin{bmatrix}2^{n}&2^{n-1}\\0&0\end{bmatrix}},n\neq 0}

Sabemos então que

e A = n = 0 A n n ! {\displaystyle e^{A}=\sum _{n=0}^{\infty }{\frac {A^{n}}{n!}}}
e A = I + n = 1 A n n ! = I + n = 1 1 n ! [ 2 n 2 n 1 0 0 ] = {\displaystyle e^{A}=I+\sum _{n=1}^{\infty }{\frac {A^{n}}{n!}}=I+\sum _{n=1}^{\infty }{\frac {1}{n!}}{\begin{bmatrix}2^{n}&2^{n-1}\\0&0\end{bmatrix}}=}
= I + [ n = 1 2 n n ! n = 1 2 n 1 n ! 0 0 ] = [ n = 0 2 n n ! 1 2 n = 1 2 n n ! 0 1 ] {\displaystyle =I+{\begin{bmatrix}\sum _{n=1}^{\infty }{\frac {2^{n}}{n!}}&\sum _{n=1}^{\infty }{\frac {2^{n-1}}{n!}}\\0&0\end{bmatrix}}={\begin{bmatrix}\sum _{n=0}^{\infty }{\frac {2^{n}}{n!}}&{\frac {1}{2}}\sum _{n=1}^{\infty }{\frac {2^{n}}{n!}}\\0&1\end{bmatrix}}}
e A = [ e 2 1 2 ( e 2 1 ) 0 1 ] {\displaystyle e^{A}={\begin{bmatrix}e^{2}&{\frac {1}{2}}(e^{2}-1)\\0&1\end{bmatrix}}}

Equações diferenciais ordinárias lineares

Um problema de valor inicial para um sistema de equações diferencias ordinárias lineares homogêneas com coeficientes constantes pode ser escrito na forma matricial:

{ d d t y ( t ) = A y ( t ) y ( t o ) = y o {\displaystyle \left\{{\begin{array}{ll}{\frac {d}{dt}}y(t)=Ay(t)\\y(t_{o})=y_{o}\end{array}}\right.\,}

onde a incógnita y ( t ) {\displaystyle y(t)\,} é um vetor de dimensão n {\displaystyle n\,} que depende do tempo, y 0 {\displaystyle y_{0}\,} é a condição inicial e A {\displaystyle A\,} é uma matriz n × n {\displaystyle n\times n\,} . A solução deste sistema é dada por:

y ( t ) = e A ( t t 0 ) y 0 {\displaystyle y(t)=e^{A(t-t_{0})}y_{0}\,}

A matriz E ( s ) {\displaystyle E(s)\,} definida como e s A {\displaystyle e^{sA}\,} pode ser interpretada como operador que associa cada condição inicial y 0 {\displaystyle y_{0}\,} à solução do sistema de equações no instante t 0 + s {\displaystyle t_{0}+s\,} .

A exponencial matricial também pode ser usada para resolver o problema não-homogêcio associado

{ d d t y ( t ) = A y ( t ) + f ( t ) y ( t o ) = y o {\displaystyle \left\{{\begin{array}{ll}{\frac {d}{dt}}y(t)=Ay(t)+f(t)\\y(t_{o})=y_{o}\end{array}}\right.\,}

pelo Método da variação de parâmetros, ou seja, busca-se por soluções da forma:

y ( t ) = e A ( t t 0 ) z ( t ) {\displaystyle y(t)=e^{A(t-t_{0})}z(t)\,}

Substituindo esta expressão na equação diferencial, temos:

A e A ( t t 0 ) z ( t ) + e A ( t t 0 ) d d t z ( t ) = A e A ( t t 0 ) z ( t ) + f ( t ) {\displaystyle Ae^{A(t-t_{0})}z(t)+e^{A(t-t_{0})}{\frac {d}{dt}}z(t)=Ae^{A(t-t_{0})}z(t)+f(t)\,}

ou, resolvendo para z ( t ) {\displaystyle z(t)\,} :

d d t z ( t ) = e A ( t t 0 ) f ( t ) {\displaystyle {\frac {d}{dt}}z(t)=e^{-A(t-t_{0})}f(t)\,}

trocando t {\displaystyle t\,} por s {\displaystyle s\,} e integrando em [ t 0 , t ] {\displaystyle [t_{0},t]\,} , temos:

z ( t ) = z ( t 0 ) + t 0 t e A ( s t 0 ) f ( s ) d s {\displaystyle z(t)=z(t_{0})+\int _{t_{0}}^{t}e^{-A(s-t_{0})}f(s)ds\,}

e, finalmente:

y ( t ) = e A ( t t 0 ) y 0 + t 0 t e A ( t s ) f ( s ) d s {\displaystyle y(t)=e^{A(t-t_{0})}y_{0}+\int _{t_{0}}^{t}e^{A(t-s)}f(s)ds\,}


  • v
  • d
  • e
Classes de matriz
Elementos explicitamente restritos
Constante
Condições sobre
autovalores e autovetores
Satisfazendo condições
sobre produtos ou inversas
Com aplicações específicas
Usada em estatística
  • Bernoulli
  • Centro
  • Correlação
  • Covariância
  • Dispersão
  • Duplamente estocástica
  • Informação de Fisher
  • Projeção
  • Precisão
  • Estocástica
  • Transição
Usada em teoria dos grafos
Usada em ciência e engenharia
Termos relacionados
  • Categoria:Matrizes