Operación de derivada de vector y producto cruz de vector y operación de derivada de producto puntual

Propósito: Estoy escribiendo código de optimización recientemente y necesito derivar las variables en la función y obtener su matriz jacobiana. Por lo tanto, se utilizan las derivadas de vectores y matrices.

Un vector se puede representar de la siguiente manera: Y = [ y 1 , y 2 , . . . , ym ] TY=[y_1,y_2,...,y_m]^TY=[ años1,y2,... ,ym]
Conocimientos básicos de derivadas vectoriales de T. Se divide en las siguientes categorías:
1) VectorY = [ y 1 , y 2 , . . . , ym ] TY=[y_1,y_2,...,y_m]^TY=[ años1,y2,... ,ym]T axxx标量求导:
∂ Y ∂ x = [ ∂ y 1 ∂ x ∂ y 2 ∂ x ⋮ ∂ ym ∂ x ] \cfrac{\partial{Y}}{\partial{x}}=\begin{bmatrix} \ cfrac{\parcial{y_1}}{\parcial{x}} \\ \cfrac{\parcial{y_2}}{\parcial{x}} \\ \vdots \\ \cfrac{\parcial{y_m}}{\ parcial{x}} \end{bmatrix}x Y= xaños1xaños2xañosm
如果 Y = [ y 1 , y 2 , . . . , y m ] Y=[y_1,y_2,...,y_m] Y=[ años1,y2,... ,ym]是行向量,则求导
∂ Y ∂ x = [ ∂ y 1 ∂ x ∂ y 2 ∂ x … ∂ ym ∂ x ] \cfrac{\partial{Y}}{\partial{x}}=\begin{ bmatriz} \cfrac{\parcial{y_1}}{\parcial{x}} \space \cfrac{\parcial{y_2}}{\parcial{x}} \ldots \cfrac{\parcial{y_m}}{\parcial {x}} \end{bmatriz}x Y=[xaños1 xaños2xañosm]

2)标量 y y y al vectorX = [ x 1 , x 2 , . . . , xm ] TX=[x_1,x_2,...,x_m]^TX=[ X1,X2,... ,Xm]T求导
∂ y ∂ X = [ ∂ y ∂ x 1 ∂ y ∂ x 2 ⋮ ∂ y ∂ xm ] \cfrac{\partial{y}}{\partial{X}}=\begin{bmatrix} \cfrac{ \parcial{y}}{\parcial{x_1}} \\ \cfrac{\parcial{y}}{\parcial{x_2}} \\ \vdots \\ \cfrac{\parcial{y}}{\parcial{ x_m}} \end{bmatriz}∂X _ año= x1 añox2 añoxm año
Si X = [ x 1 , x 2 , . . . , xm ] X=[x_1,x_2,...,x_m]X=[ X1,X2,... ,Xm]为行向量:
∂ y ∂ X = [ ∂ y ∂ x 1 ∂ y ∂ x 2 … ∂ y ∂ xm ] \cfrac{\partial{y}}{\partial{X}}=\begin{bmatrix} \ cfrac{\parcial{y}}{\parcial{x_1}} \space \cfrac{\parcial{y}}{\parcial{x_2}} \ldots \cfrac{\parcial{y}}{\parcial{x_m} } \end{bmatriz}∂X _ año=[x1 año x2 añoxm año]

3)向量 Y = [ y 1 , y 2 , . . . , y m ] T Y=[y_1,y_2,...,y_m]^T Y=[ años1,y2,... ,ym]T par vectorX = [ x 1 , x 2 , . . . , xn ] X=[x_1,x_2,...,x_n]X=[ X1,X2,... ,Xn]求导
∂ Y ∂ X = [ ∂ y 1 ∂ x 1 ∂ y 1 ∂ x 2 … ∂ y 1 ∂ xn ∂ y 2 ∂ x 1 ∂ y 2 ∂ x 2 … ∂ y 2 ∂ xn ⋮ ∂ ym ∂ x 1 ∂ ym ∂ x 2 … ∂ ym ∂ xn ] \cfrac{\parcial{Y}}{\parcial{X}}=\begin{bmatrix} \cfrac{\parcial{y_1}}{\parcial{x_1}} \espacio \espacio \cfrac{\parcial{y_1}}{\parcial{x_2}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y_1}}{\parcial{x_n}} \\ \cfrac {\parcial{y_2}}{\parcial{x_1}} \espacio \espacio \cfrac{\parcial{y_2}}{\parcial{x_2}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{ y_2}}{\parcial{x_n}} \\ \vdots \\ \cfrac{\parcial{y_m}}{\parcial{x_1}} \space \space \cfrac{\parcial{y_m}}{\parcial{x_2 }} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y_m}}{\parcial{x_n}} \end{bmatrix}∂X _ Y= x1años1  x2años1    xnaños1x1años2  x2años2    xnaños2x1añosm  x2añosm    xnañosm
La diferenciación vector por vector también se conoce como jacobiana, que es muy común en la optimización.

Si es una matriz,
como YYY是矩阵的时候,它的表达:
Y = [ y 11 y 12 … y 1 ny 21 y 22 … y 2 n ⋮ ym 1 ym 2 … ymn ] Y=\begin{bmatrix} y_{11} \space \ espacio y_{12} \espacio \espacio \ldots \espacio \espacio y_{1n} \\ y_{21} \espacio \espacio y_{22} \espacio \espacio \ldots \espacio \espacio y_{2n} \\ \ vdots \\ y_{m1} \space \space y_{m2} \space \space \ldots \space \space y_{mn} \end{bmatrix}Y= y11  y12    y1 nortey21  y22    y2 norteymetro 1  ymetro 2    ymn
como XXCuando X es una matriz, su expresión:
X = [ x 11 x 12 … x 1 nx 21 x 22 … x 2 n ⋮ xm 1 xm 2 … xmn ] X=\begin{bmatrix} x_{11} \space \ space x_{12} \space \space \ldots \space \space x_{1n} \\ x_{21} \space \space x_{22} \space \space \ldots \space \space x_{2n} \\ \ vdots \\ x_{m1} \espacio \espacio x_{m2} \espacio \espacio \ldots \espacio \espacio x_{mn} \end{bmatrix}X= X11  X12    X1 norteX21  X22    X2 norteXmetro 1  Xmetro 2    Xmn

Hay dos tipos de derivados de matriz, como sigue
1) Matriz YYY vs escalarxxx求导:
∂ Y ∂ x = [ ∂ y 11 ∂ x ∂ y 12 ∂ x … ∂ y 1 norte ∂ x ∂ y 21 ∂ x ∂ y 22 ∂ x … ∂ y 2 norte ∂ x ⋮ ∂ ym 1 ∂ x ∂ ym 2 ∂ x … ∂ ymn ∂ x ] \cfrac{\parcial{Y}}{\parcial{x}}=\begin{bmatrix} \cfrac{\parcial{y_{11}}}{\parcial{x }} \space \space \cfrac{\partial{y_{12}}}{\partial{x}} \space \space \ldots \space \space \cfrac{\partial{y_{1n}}}{\partial {x}} \\ \cfrac{\parcial{y_{21}}}{\parcial{x}} \space \space \cfrac{\parcial{y_{22}}}{\parcial{x}} \space \espacio \ldots \espacio \espacio \cfrac{\parcial{y_{2n}}}{\parcial{x}} \\ \vdots \\ \cfrac{\parcial{y_{m1}}}{\parcial{x }} \space \space \cfrac{\partial{y_{m2}}}{\partial{x}} \space \space \ldots \space \space \cfrac{\partial{y_{mn}}}{\partial {x}} \end{bmatriz}x Y= xaños11  xaños12    xaños1 nortexaños21  xaños22    xaños2 nortexañosmetro 1  xañosmetro 2    xañosmn
2)标量 y y y versus matrizXXX :
∂ y ∂ X = [ ∂ y ∂ x 11 ∂ y ∂ x 12 … ∂ y ∂ x 1 norte ∂ y ∂ x 21 ∂ y ∂ x 22 … ∂ y ∂ x 2 norte ⋮ ∂ y ∂ xm 1 ∂ y ∂ xm 2 … ∂ y ∂ xmn ] \cfrac{\parcial{y}}{\parcial{X}}=\begin{bmatrix} \cfrac{\parcial{y}}{\parcial{x_{11} }} \space \space \cfrac{\partial{y}}{\partial{x_{12}}} \space \space \ldots \space \space \cfrac{\partial{y}}{\partial{x_{ 1n}}} \\ \cfrac{\parcial{y}}{\parcial{x_{21}}} \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{22}}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{2n}}} \\ \vdots \\ \cfrac{\parcial{y}}{\parcial{x_{m1} }} \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{m2}}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{ mn}}} \end{bmatriz}∂X _ año= x11 año  x12 año    x1 norte añox21 año  x22 año    x2 norte añoxmetro 1 año  xmetro 2 año    xmn año
Esta es la definición de la derivada de un vector básico. A partir de estas definiciones y de algunas reglas básicas de funcionamiento se obtienen unas fórmulas combinadas. Muy útil en la programación de algoritmos geométricos.

La derivación vectorial en la fórmula tiene múltiples vectores y dependencias vectoriales en la fórmula general, por lo que se espera que pueda satisfacer la regla de la cadena de la derivación escalar al calcular la derivada.
Suponga que los vectores dependen unos de otros: U − > V − > W U->V->Wtu ->V ->W
则偏导数为:
∂ W ∂ U = ∂ W ∂ V ∂ V ∂ U \cfrac{\parcial{W}}{\parcial{U}}=\cfrac{\parcial{W}}{\parcial{V }} \espacio \espacio \cfrac{\parcial{V}}{\parcial{U}}U W=∂V _ W  U∂V _

Prueba: solo necesitas desensamblar y derivar los elementos uno por uno para obtener:
∂ wi ∂ uj = ∑ k ∂ wi ∂ vk ∂ vk ∂ uj = ∂ wi ∂ V ∂ V ∂ uj \cfrac{\partial{w_i}} {\parcial{ u_j}} = \sum_{k}\cfrac{\parcial{w_i}}{\parcial{v_k}}\space \cfrac{\parcial{v_k}}{\parcial{u_j}} =\cfrac {\parcial{ w_i}}{\parcial{V}} \space \cfrac{\parcial{V}}{\parcial{u_j}}tujwyo=k∂v _kwyo tuj∂v _k=∂V _wyo tuj∂V _
Se puede ver que ∂ wi ∂ uj \cfrac{\partial{w_i}}{\partial{u_j}}tujwyoes igual a la matriz ∂ W ∂ V \cfrac{\partial{W}}{\partial{V}}∂V _ Wyo _i fila y matriz∂ V ∂ U \cfrac{\partial{V}}{\partial{U}}U∂V _jj deEl producto interno de la columna j , que es la definición de multiplicación de matrices.
Puede generalizarse fácilmente al escenario de múltiples variables intermedias.

La situación encontrada en la variable es a menudo la fórmula es FFCuando F es un número real y las variables intermedias son todas vectores, su dependencia es:
X − > V − > U − > f X->V->U->fX >V ->tu ->
De acuerdo con la transitividad de la matriz jacobiana, f
se puede obtener de la siguiente manera: ∂ F ∂ X = ∂ F ∂ U ∂ U ∂ V ∂ V ∂ X \cfrac{\partial{F}}{\partial{X}} = \cfrac{\ parcial{F}}{\parcial{U}}\espacio \cfrac{\parcial{U}}{\parcial{V}} \espacio \cfrac{\parcial{V}}{\parcial{X }}∂X _ F=U F ∂V _ U ∂X _∂V _
porque fff es un escalar, por lo que se escribe de la siguiente manera:
∂ f ∂ XT = ∂ f ∂ UT ∂ U ∂ V ∂ V ∂ X \cfrac{\partial{f}}{\partial{X^T}} = \cfrac {\ parcial{f}}{\parcial{U^T}}\espacio \cfrac{\parcial{U}}{\parcial{V}} \espacio \cfrac{\parcial{V}}{\parcial{X }}∂X _T f=UT f ∂V _ U ∂X _∂V _
Para facilitar el cálculo, lo anterior debe convertirse en un vector fila UTU^TtuT ,XTX^TXcálculo de T. Esto es muy importante.

A continuación se presentan las fórmulas de cálculo de uso común que se encuentran al calcular el recíproco de vectores. Tienen los siguientes dos tipos

1) Dos vectores UUtu ,vvEl resultado del producto escalar de V (vector columna) contraWWW求导:
∂ ( UTV ) ∂ W = ( ∂ U ∂ W ) TV + ( ∂ V ∂ W ) TU ( 4 ) \cfrac{\parcial{(U^TV)}}{\parcial{W}} = ( \cfrac{\parcial{U}}{\parcial{W}})^TV + ( \cfrac{\parcial{V}}{\parcial{W}})^TU \space (4)W( tuTV )_=(W U)televisión _+(W∂V _)La demostración de la fórmula derivada del producto escalar T U(4) 
se complementará más adelante.
Prueba: supongamos queU = [ u 0 u 1 u 3 ] U=\begin{bmatrix} u_0 \\ u_1 \\ u_3 \end{bmatrix}tu= tu0tu1tu3 V = [ v 0 v 1 v 3 ] V=\begin{bmatrix} v_0 \\ v_1 \\ v_3 \end{bmatrix}V= v0v1v3 , que son vectores tridimensionales. Obtenga el producto escalar como f = UTV f=U^TVF=tuT V, que es un escalar como:f = u 0 v 0 + u 1 v 1 + u 2 v 2 f=u_0v_0+u_1v_1+u_2v_2F=tu0v0+tu1v1+tu2v2, y luego buscarlo para WWDerivada de W

∂ F ∂ W = ∂ ( tu 0 v 0 + tu 1 v 1 + tu 2 v 2 ) ∂ W = ∂ tu 0 ∂ W v 0 + ∂ v 0 ∂ W tu 0 + ∂ tu 1 ∂ W v 1 + ∂ v 1 ∂ W tu 1 + ∂ tu 2 ∂ W v 2 + ∂ v 2 ∂ W tu 2 = ( ∂ tu 0 ∂ W v 0 + ∂ tu 1 ∂ W v 1 + ∂ tu 2 ∂ W v 2 ) + ( ∂ v 0 ∂ W tu 0 + ∂ v 1 ∂ W tu 1 + ∂ v 2 ∂ W tu 2 ) = ( ∂ U ∂ W ) TV + ( ∂ V ∂ W ) TU \cfrac{\partial{f}}{ \parcial{W}}=\cfrac{\parcial{(u_0v_0+u_1v_1+u_2v_2)}}{\parcial{W}} \\ =\cfrac{\parcial{u_0}}{\parcial{W}}v_0 + \cfrac{\parcial{v_0}}{\parcial{W}}u_0 + \cfrac{\parcial{u_1}}{\parcial{W}}v_1 + \cfrac{\parcial{v_1}}{\parcial{W }}u_1 + \cfrac{\parcial{u_2}}{\parcial{W}}v_2 + \cfrac{\parcial{v_2}}{\parcial{W}}u_2 \\ =(\cfrac{\parcial{u_0 }}{\parcial{W}}v_0 + \cfrac{\parcial{u_1}}{\parcial{W}}v_1 + \cfrac{\parcial{u_2}}{\parcial{W}}v_2) + (\ cfrac{\parcial{v_0}}{\parcial{W}}u_0 + \cfrac{\parcial{v_1}}{\parcial{W}}u_1 + \cfrac{\parcial{v_2}}{\parcial{W} }u_2)\\ =( \cfrac{\parcial{U}}{\parcial{W}})^TV + ( \cfrac{\parcial{V}}{\parcial{W}})^TUW f=W( tu0v0+tu1v1+tu2v2)=Wtu0v0+W∂v _0tu0+Wtu1v1+W∂v _1tu1+Wtu2v2+W∂v _2tu2=(Wtu0v0+Wtu1v1+Wtu2v2)+(W∂v _0tu0+W∂v _1tu1+W∂v _2tu2)=(W U)televisión _+(W∂V _)TU _

Se puede generalizar a otras dimensiones. La prueba ha terminado.

Si WWW es un escalar y se sustituye directamente en( 4 ) (4)( 4 ) puede ser. pero siWWW es un vector, en el cálculo, generalmenteWWW se convierte en un vector fila. Porque la definición de la matriz de Jacobi es que el vector columna se puede derivar del vector fila. Así queWWW se puede expresar comoWTW^TWT (vector fila), entonces(4) (4)( 4 ),写成:
∂ ( UTV ) ∂ WT = ( ∂ U ∂ WT ) TV + ( ∂ V ∂ WT ) TU \cfrac{\parcial{(U^TV)}}{\parcial{W^T}} = ( \cfrac{\parcial{U}}{\parcial{W^T}})^TV + ( \cfrac{\parcial{V}}{\parcial{W^T}})^TUWT( tuTV )_=(WT U)televisión _+(WT∂V _)TU _

2) Dos vectores UUtu ,vvEl resultado del producto vectorial de V (vector columna) contraWWW求导:
∂ ( U × V ) ∂ W = − S kew ( V ) ( ∂ U ∂ W ) + S kew ( U ) ( ∂ V ∂ W ) ( 5 ) \cfrac{\parcial{(U \times V)}}{\parcial{W}} = -Sesgo(V)( \cfrac{\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}} {\parcial{W}}) \espacio (5)W( tu×V )=- S k mi w ( V ) (W U)+Sesgo ( U ) ( _ _ _W∂V _) ( 5 ) 
其中
S kew ( U ) = [ 0 − U 3 U 2 U 3 0 − U 1 − U 2 U 1 0 ] Skew(U) = \begin{bmatrix} 0 \space \space -U_3 \space \espacio U_2 \\ U_3 \espacio \espacio 0 \espacio \espacio -U_1 \\ -U_2 \espacio \espacio U_1 \espacio \espacio 0 \end{bmatrix}Sesgo ( U ) _ _ _= 0  tu3  tu2tu3  0  tu1tu2  tu1  0
Donde S sesgo ( V ) Sesgo (V)S k e w ( V ) es la matriz que convierte el producto cruzado en el producto escalar. Es muy fácil de probar, porque es solo una expansión de matriz.
Para la multiplicación de múltiples vectores, la fórmula necesita ser transformada. El producto cruzado satisface la tasa de distribución.
∂ ( U × V ) ∂ W = ( ∂ U ∂ W ) × V + U × ( ∂ V ∂ W ) ( 6 ) \cfrac{\parcial{(U \times V)}}{\parcial{W}} = ( \cfrac{\parcial{U}}{\parcial{W}}) \times V + U \times ( \cfrac{\parcial{V}}{\parcial{W}}) \space (6)W( tu×V )=(W U)×V+tu×(W∂V _) ( 6 ) 
La prueba se completará más adelante. Ambas fórmulas (5) y (6) están resueltas. Sólo la expresión es diferente. Su conversión se agregará más adelante.

Prueba: Establecer U = [ u 0 u 1 u 3 ] U=\begin{bmatrix} u_0 \\ u_1 \\ u_3 \end{bmatrix}tu= tu0tu1tu3 V = [ v 0 v 1 v 3 ] V=\begin{bmatrix} v_0 \\ v_1 \\ v_3 \end{bmatrix}V= v0v1v3 , que son vectores tridimensionales.

U × V = [ yo j ku 0 tu 1 tu 2 v 0 v 1 v 2 ] = ( tu 1 v 2 - tu 1 v 2 ) yo + ( tu 2 v 0 - tu 0 v 2 ) j + ( tu 0 v 1 − u 1 v 0 ) k U \times V = \begin{bmatrix} i \space \space j \space \space k \\ u_0 \space \space u_1 \space \space u_2 \\ v_0 \space \space v_1 \espacio \espacio v_2 \end{bmatriz} \\ = (u_1v_2 - u_1v_2)i+ (u_2v_0 - u_0v_2)j+ (u_0v_1 - u_1v_0)ktu×V= yo k _    tu0  tu1  tu2v0  v1  v2 =( tu1v2tu1v2) yo+( tu2v0tu0v2) j+( tu0v1tu1v0) k

Es un vector, por lo que cuando se expande, su expresión es la siguiente:

U × V = [ ( tu 1 v 2 − tu 2 v 1 ) ( tu 2 v 0 − tu 0 v 2 ) ( tu 0 v 1 − tu 1 v 0 ) ] U \times V = \begin{bmatrix} ( u_1v_2 - u_2v_1) \\ (u_2v_0 - u_0v_2) \\ (u_0v_1 - u_1v_0) \end{bmatriz}tu×V= ( tu1v2tu2v1)( tu2v0tu0v2)( tu0v1tu1v0)

Después de la expansión, obtenemos lo siguiente:

∂ ( U × V ) ∂ W = [ ∂ ( tu 1 v 2 - tu 2 v 1 ) ∂ W ∂ ( tu 2 v 0 - tu 0 v 2 ) ∂ W ∂ ( tu 0 v 1 - tu 1 v 0 ) ∂ W ] = ∂ ( tu 1 v 2 - tu 2 v 1 ) ∂ WI + ∂ ( tu 2 v 0 - tu 0 v 2 ) ∂ WJ + ∂ ( tu 0 v 1 - tu 1 v 0 ) ∂ WK = ( ∂ tu 1 ∂ W ∗ v 2 + ∂ v 2 ∂ W ∗ tu 1 − ∂ tu 2 ∂ W ∗ v 1 − ∂ v 1 ∂ W ∗ tu 2 ) yo + ( ∂ tu 2 ∂ W ∗ v 0 + ∂ v 0 ∂ W ∗ tu 2 − ∂ tu 0 ∂ W ∗ v 2 − ∂ v 2 ∂ W ∗ tu 0 ) J + ( ∂ tu 0 ∂ W ∗ v 1 + ∂ v 1 ∂ W ∗ tu 0 − ∂ tu 1 ∂ W ∗ v 0 - ∂ v 0 ∂ W ∗ tu 1 ) K = [ ( ∂ tu 1 ∂ W ∗ v 2 - ∂ tu 2 ∂ W ∗ v 1 ) yo + ( ∂ tu 2 ∂ W ∗ v 0 - ∂ tu 0 ∂ W ∗ v 2 ) J + ( ∂ tu 0 ∂ W ∗ v 1 - ∂ tu 1 ∂ W ∗ v 0 ) K ] + [ ( ∂ v 2 ∂ W ∗ tu 1 - ∂ v 1 ∂ W ∗ tu 2 ) yo + ( ∂ v 0 ∂ W ∗ tu 2 − ∂ v 2 ∂ W ∗ tu 0 ) J + ( ∂ v 1 ∂ W ∗ tu 0 − ∂ v 0 ∂ W ∗ tu 1 ) K ] = ( ∂ U ∂ W ) × V − ( ∂ V ∂ W ) × U = − V × ( ∂ U ∂ W ) + U × ( ∂ V ∂ W ) = − S Kew ( V ) ( ∂ U ∂ W ) + S Kew ( U ) ( ∂ V ∂ W ) \cfrac{\partial{(U \timesV)}}{\parcial{W}} = \begin{bmatrix} \cfrac{\parcial{(u_1v_2 - u_2v_1) }}{\parcial{W}} \\ \cfrac{\parcial{ (u_2v_0 - u_0v_2) }}{\parcial{W}}\\ \cfrac{\parcial{ (u_0v_1 - u_1v_0)}}{\parcial{W}}\\ \end{bmatrix} = \cfrac{\parcial{(u_1v_2 - u_2v_1) }}{\parcial{W}} I + \cfrac{\parcial{ (u_2v_0 - u_0v_2)}}{\parcial{W}}J+ \cfrac{\parcial{ (u_0v_1 - u_1v_0)}}{\parcial{W }}K \\ = (\cfrac{\parcial{u_1}}{\parcial{W}}*v_2+\cfrac{\parcial{v_2}}{\parcial{W}}*u_1-\cfrac{\parcial{ u_2}}{\parcial{W}}*v_1-\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I+(\cfrac{\parcial{u_2}}{\parcial{W}} *v_0+\cfrac{\parcial{v_0}}{\parcial{W}}*u_2-\cfrac{\parcial{u_0}}{\parcial{W}}*v_2-\cfrac{\parcial{v_2}}{ \parcial{W}}*u_0)J + (\cfrac{\parcial{u_0}}{\parcial{W}}*v_1+\cfrac{\parcial{v_1}}{\parcial{W}}*u_0-\ cfrac{\parcial{u_1}}{\parcial{W}}*v_0-\cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K \\=[(\cfrac{\parcial{u_1}}{\parcial{W}}*v_2 -\cfrac{\parcial{u_2}}{\parcial{W}}*v_1)I + (\cfrac{\parcial{ u_2}}{\parcial{W}}*v_0 - \cfrac{\parcial{u_0}}{\parcial{W}}*v_2)J + (\cfrac{\parcial{u_0}}{\parcial{W} }*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}*v_0)K] + [(\cfrac{\parcial{v_2}}{\parcial{W}}*u_1 -\cfrac{ \parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac{\parcial{v_0}}{\parcial{W}}*u_2 - \cfrac{\parcial{v_2}}{\parcial {W}}*u_0)J + (\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \times V - ( \cfrac{\parcial{V}}{\parcial{W}}) \times U = -V \ times (\cfrac{\partial{U}}{\partial{W}}) + U \times ( \cfrac{\partial{V}}{\partial{W}})= -Skew(V)( \cfrac {\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})-\cfrac{\parcial{u_2}}{\parcial{W}}*v_1)I + (\cfrac{\parcial{u_2}}{\parcial{W}}*v_0 - \cfrac{\parcial{u_0} }{\parcial{W}}*v_2)J + (\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}* v_0)K] + [(\cfrac{\parcial{v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac {\parcial{v_0}}{\parcial{W}}*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\ parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \veces V - ( \cfrac{\parcial{V}}{\parcial{W}}) \veces U = -V \times (\cfrac{\parcial{U}}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\partial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})-\cfrac{\parcial{u_2}}{\parcial{W}}*v_1)I + (\cfrac{\parcial{u_2}}{\parcial{W}}*v_0 - \cfrac{\parcial{u_0} }{\parcial{W}}*v_2)J + (\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}* v_0)K] + [(\cfrac{\parcial{v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac {\parcial{v_0}}{\parcial{W}}*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\ parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \veces V - ( \cfrac{\parcial{V}}{\parcial{W}}) \veces U = -V \times (\cfrac{\parcial{U}}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\partial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})(\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}*v_0)K] + [(\cfrac{\parcial{ v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac{\parcial{v_0}}{\parcial{W} }*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial {v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \times V - ( \cfrac{\parcial{V} }{\partial{W}}) \times U = -V \times (\cfrac{\partial{U}}{\partial{W}}) + U \times ( \cfrac{\partial{V}}{ \parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{ W}})(\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}*v_0)K] + [(\cfrac{\parcial{ v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac{\parcial{v_0}}{\parcial{W} }*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial {v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \times V - ( \cfrac{\parcial{V} }{\partial{W}}) \times U = -V \times (\cfrac{\partial{U}}{\partial{W}}) + U \times ( \cfrac{\partial{V}}{ \parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{ W}})(\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial {U}}{\partial{W}}) \times V - ( \cfrac{\partial{V}}{\partial{W}}) \times U = -V \times (\cfrac{\partial{U }}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\ parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})(\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial {U}}{\partial{W}}) \times V - ( \cfrac{\partial{V}}{\partial{W}}) \times U = -V \times (\cfrac{\partial{U }}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\ parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})W( tu×V )= W( tu1v2tu2v1)W( tu2v0tu0v2)W( tu0v1tu1v0) =W( tu1v2tu2v1)I+W( tu2v0tu0v2)j+W( tu0v1tu1v0)k=(Wtu1v2+W∂v _2tu1Wtu2v1W∂v _1tu2) yo+(Wtu2v0+W∂v _0tu2Wtu0v2W∂v _2tu0) J+(Wtu0v1+W∂v _1tu0Wtu1v0W∂v _0tu1) k=[(Wtu1v2Wtu2v1) yo+(Wtu2v0Wtu0v2) J+(Wtu0v1Wtu1v0) K ]+[(W∂v _2tu1W∂v _1tu2) yo+(W∂v _0tu2W∂v _2tu0) J+(W∂v _1tu0W∂v _0tu1) K ]=(W U)×V(W∂V _)×tu=V×(W U)+tu×(W∂V _)=- S k mi w ( V ) (W U)+Sesgo ( U ) ( _ _ _W∂V _)

Los supuestos a , ba , bun ,b es un vector, es fácil de obtener de la siguiente manera
a × b = − b × aa \times b = -b \times aa×b=- segundo×a

Se puede extender de tres dimensiones a vectores multidimensionales. prueba completada

Supongo que te gusta

Origin blog.csdn.net/weixin_43851636/article/details/125340140
Recomendado
Clasificación