Propósito: Estoy escribiendo código de optimización recientemente y necesito derivar las variables en la función y obtener su matriz jacobiana. Por lo tanto, se utilizan las derivadas de vectores y matrices.
Un vector se puede representar de la siguiente manera: Y = [ y 1 , y 2 , . . . , ym ] TY=[y_1,y_2,...,y_m]^TY=[ años1,y2,... ,ym]
Conocimientos básicos de derivadas vectoriales de T. Se divide en las siguientes categorías:
1) VectorY = [ y 1 , y 2 , . . . , ym ] TY=[y_1,y_2,...,y_m]^TY=[ años1,y2,... ,ym]T axxx标量求导:
∂ Y ∂ x = [ ∂ y 1 ∂ x ∂ y 2 ∂ x ⋮ ∂ ym ∂ x ] \cfrac{\partial{Y}}{\partial{x}}=\begin{bmatrix} \ cfrac{\parcial{y_1}}{\parcial{x}} \\ \cfrac{\parcial{y_2}}{\parcial{x}} \\ \vdots \\ \cfrac{\parcial{y_m}}{\ parcial{x}} \end{bmatrix}∂ x∂ Y=⎣
⎡∂ x∂ años1∂ x∂ años2⋮∂ x∂ añosm⎦
⎤
如果 Y = [ y 1 , y 2 , . . . , y m ] Y=[y_1,y_2,...,y_m] Y=[ años1,y2,... ,ym]是行向量,则求导
∂ Y ∂ x = [ ∂ y 1 ∂ x ∂ y 2 ∂ x … ∂ ym ∂ x ] \cfrac{\partial{Y}}{\partial{x}}=\begin{ bmatriz} \cfrac{\parcial{y_1}}{\parcial{x}} \space \cfrac{\parcial{y_2}}{\parcial{x}} \ldots \cfrac{\parcial{y_m}}{\parcial {x}} \end{bmatriz}∂ x∂ Y=[∂ x∂ años1 ∂ x∂ años2…∂ x∂ añosm]
2)标量 y y y al vectorX = [ x 1 , x 2 , . . . , xm ] TX=[x_1,x_2,...,x_m]^TX=[ X1,X2,... ,Xm]T求导
∂ y ∂ X = [ ∂ y ∂ x 1 ∂ y ∂ x 2 ⋮ ∂ y ∂ xm ] \cfrac{\partial{y}}{\partial{X}}=\begin{bmatrix} \cfrac{ \parcial{y}}{\parcial{x_1}} \\ \cfrac{\parcial{y}}{\parcial{x_2}} \\ \vdots \\ \cfrac{\parcial{y}}{\parcial{ x_m}} \end{bmatriz}∂X _∂ año=⎣
⎡∂ x1∂ año∂ x2∂ año⋮∂ xm∂ año⎦
⎤
Si X = [ x 1 , x 2 , . . . , xm ] X=[x_1,x_2,...,x_m]X=[ X1,X2,... ,Xm]为行向量:
∂ y ∂ X = [ ∂ y ∂ x 1 ∂ y ∂ x 2 … ∂ y ∂ xm ] \cfrac{\partial{y}}{\partial{X}}=\begin{bmatrix} \ cfrac{\parcial{y}}{\parcial{x_1}} \space \cfrac{\parcial{y}}{\parcial{x_2}} \ldots \cfrac{\parcial{y}}{\parcial{x_m} } \end{bmatriz}∂X _∂ año=[∂ x1∂ año ∂ x2∂ año…∂ xm∂ año]
3)向量 Y = [ y 1 , y 2 , . . . , y m ] T Y=[y_1,y_2,...,y_m]^T Y=[ años1,y2,... ,ym]T par vectorX = [ x 1 , x 2 , . . . , xn ] X=[x_1,x_2,...,x_n]X=[ X1,X2,... ,Xn]求导
∂ Y ∂ X = [ ∂ y 1 ∂ x 1 ∂ y 1 ∂ x 2 … ∂ y 1 ∂ xn ∂ y 2 ∂ x 1 ∂ y 2 ∂ x 2 … ∂ y 2 ∂ xn ⋮ ∂ ym ∂ x 1 ∂ ym ∂ x 2 … ∂ ym ∂ xn ] \cfrac{\parcial{Y}}{\parcial{X}}=\begin{bmatrix} \cfrac{\parcial{y_1}}{\parcial{x_1}} \espacio \espacio \cfrac{\parcial{y_1}}{\parcial{x_2}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y_1}}{\parcial{x_n}} \\ \cfrac {\parcial{y_2}}{\parcial{x_1}} \espacio \espacio \cfrac{\parcial{y_2}}{\parcial{x_2}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{ y_2}}{\parcial{x_n}} \\ \vdots \\ \cfrac{\parcial{y_m}}{\parcial{x_1}} \space \space \cfrac{\parcial{y_m}}{\parcial{x_2 }} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y_m}}{\parcial{x_n}} \end{bmatrix}∂X _∂ Y=⎣
⎡∂ x1∂ años1 ∂ x2∂ años1 … ∂ xn∂ años1∂ x1∂ años2 ∂ x2∂ años2 … ∂ xn∂ años2⋮∂ x1∂ añosm ∂ x2∂ añosm … ∂ xn∂ añosm⎦
⎤
La diferenciación vector por vector también se conoce como jacobiana, que es muy común en la optimización.
Si es una matriz,
como YYY是矩阵的时候,它的表达:
Y = [ y 11 y 12 … y 1 ny 21 y 22 … y 2 n ⋮ ym 1 ym 2 … ymn ] Y=\begin{bmatrix} y_{11} \space \ espacio y_{12} \espacio \espacio \ldots \espacio \espacio y_{1n} \\ y_{21} \espacio \espacio y_{22} \espacio \espacio \ldots \espacio \espacio y_{2n} \\ \ vdots \\ y_{m1} \space \space y_{m2} \space \space \ldots \space \space y_{mn} \end{bmatrix}Y=⎣
⎡y11 y12 … y1 nortey21 y22 … y2 norte⋮ymetro 1 ymetro 2 … ymn⎦
⎤
como XXCuando X es una matriz, su expresión:
X = [ x 11 x 12 … x 1 nx 21 x 22 … x 2 n ⋮ xm 1 xm 2 … xmn ] X=\begin{bmatrix} x_{11} \space \ space x_{12} \space \space \ldots \space \space x_{1n} \\ x_{21} \space \space x_{22} \space \space \ldots \space \space x_{2n} \\ \ vdots \\ x_{m1} \espacio \espacio x_{m2} \espacio \espacio \ldots \espacio \espacio x_{mn} \end{bmatrix}X=⎣
⎡X11 X12 … X1 norteX21 X22 … X2 norte⋮Xmetro 1 Xmetro 2 … Xmn⎦
⎤
Hay dos tipos de derivados de matriz, como sigue
1) Matriz YYY vs escalarxxx求导:
∂ Y ∂ x = [ ∂ y 11 ∂ x ∂ y 12 ∂ x … ∂ y 1 norte ∂ x ∂ y 21 ∂ x ∂ y 22 ∂ x … ∂ y 2 norte ∂ x ⋮ ∂ ym 1 ∂ x ∂ ym 2 ∂ x … ∂ ymn ∂ x ] \cfrac{\parcial{Y}}{\parcial{x}}=\begin{bmatrix} \cfrac{\parcial{y_{11}}}{\parcial{x }} \space \space \cfrac{\partial{y_{12}}}{\partial{x}} \space \space \ldots \space \space \cfrac{\partial{y_{1n}}}{\partial {x}} \\ \cfrac{\parcial{y_{21}}}{\parcial{x}} \space \space \cfrac{\parcial{y_{22}}}{\parcial{x}} \space \espacio \ldots \espacio \espacio \cfrac{\parcial{y_{2n}}}{\parcial{x}} \\ \vdots \\ \cfrac{\parcial{y_{m1}}}{\parcial{x }} \space \space \cfrac{\partial{y_{m2}}}{\partial{x}} \space \space \ldots \space \space \cfrac{\partial{y_{mn}}}{\partial {x}} \end{bmatriz}∂ x∂ Y=⎣
⎡∂ x∂ años11 ∂ x∂ años12 … ∂ x∂ años1 norte∂ x∂ años21 ∂ x∂ años22 … ∂ x∂ años2 norte⋮∂ x∂ añosmetro 1 ∂ x∂ añosmetro 2 … ∂ x∂ añosmn⎦
⎤
2)标量 y y y versus matrizXXX :
∂ y ∂ X = [ ∂ y ∂ x 11 ∂ y ∂ x 12 … ∂ y ∂ x 1 norte ∂ y ∂ x 21 ∂ y ∂ x 22 … ∂ y ∂ x 2 norte ⋮ ∂ y ∂ xm 1 ∂ y ∂ xm 2 … ∂ y ∂ xmn ] \cfrac{\parcial{y}}{\parcial{X}}=\begin{bmatrix} \cfrac{\parcial{y}}{\parcial{x_{11} }} \space \space \cfrac{\partial{y}}{\partial{x_{12}}} \space \space \ldots \space \space \cfrac{\partial{y}}{\partial{x_{ 1n}}} \\ \cfrac{\parcial{y}}{\parcial{x_{21}}} \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{22}}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{2n}}} \\ \vdots \\ \cfrac{\parcial{y}}{\parcial{x_{m1} }} \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{m2}}} \espacio \espacio \ldots \espacio \espacio \cfrac{\parcial{y}}{\parcial{x_{ mn}}} \end{bmatriz}∂X _∂ año=⎣
⎡∂ x11∂ año ∂ x12∂ año … ∂ x1 norte∂ año∂ x21∂ año ∂ x22∂ año … ∂ x2 norte∂ año⋮∂ xmetro 1∂ año ∂ xmetro 2∂ año … ∂ xmn∂ año⎦
⎤
Esta es la definición de la derivada de un vector básico. A partir de estas definiciones y de algunas reglas básicas de funcionamiento se obtienen unas fórmulas combinadas. Muy útil en la programación de algoritmos geométricos.
La derivación vectorial en la fórmula tiene múltiples vectores y dependencias vectoriales en la fórmula general, por lo que se espera que pueda satisfacer la regla de la cadena de la derivación escalar al calcular la derivada.
Suponga que los vectores dependen unos de otros: U − > V − > W U->V->Wtu ->V ->W
则偏导数为:
∂ W ∂ U = ∂ W ∂ V ∂ V ∂ U \cfrac{\parcial{W}}{\parcial{U}}=\cfrac{\parcial{W}}{\parcial{V }} \espacio \espacio \cfrac{\parcial{V}}{\parcial{U}}∂ U∂ W=∂V _∂ W ∂ U∂V _
Prueba: solo necesitas desensamblar y derivar los elementos uno por uno para obtener:
∂ wi ∂ uj = ∑ k ∂ wi ∂ vk ∂ vk ∂ uj = ∂ wi ∂ V ∂ V ∂ uj \cfrac{\partial{w_i}} {\parcial{ u_j}} = \sum_{k}\cfrac{\parcial{w_i}}{\parcial{v_k}}\space \cfrac{\parcial{v_k}}{\parcial{u_j}} =\cfrac {\parcial{ w_i}}{\parcial{V}} \space \cfrac{\parcial{V}}{\parcial{u_j}}∂ tuj∂ wyo=k∑∂v _k∂ wyo ∂ tuj∂v _k=∂V _∂ wyo ∂ tuj∂V _
Se puede ver que ∂ wi ∂ uj \cfrac{\partial{w_i}}{\partial{u_j}}∂ tuj∂ wyoes igual a la matriz ∂ W ∂ V \cfrac{\partial{W}}{\partial{V}}∂V _∂ Wyo _i fila y matriz∂ V ∂ U \cfrac{\partial{V}}{\partial{U}}∂ U∂V _jj deEl producto interno de la columna j , que es la definición de multiplicación de matrices.
Puede generalizarse fácilmente al escenario de múltiples variables intermedias.
La situación encontrada en la variable es a menudo la fórmula es FFCuando F es un número real y las variables intermedias son todas vectores, su dependencia es:
X − > V − > U − > f X->V->U->fX −>V ->tu ->
De acuerdo con la transitividad de la matriz jacobiana, f
se puede obtener de la siguiente manera: ∂ F ∂ X = ∂ F ∂ U ∂ U ∂ V ∂ V ∂ X \cfrac{\partial{F}}{\partial{X}} = \cfrac{\ parcial{F}}{\parcial{U}}\espacio \cfrac{\parcial{U}}{\parcial{V}} \espacio \cfrac{\parcial{V}}{\parcial{X }}∂X _∂ F=∂ U∂ F ∂V _∂ U ∂X _∂V _
porque fff es un escalar, por lo que se escribe de la siguiente manera:
∂ f ∂ XT = ∂ f ∂ UT ∂ U ∂ V ∂ V ∂ X \cfrac{\partial{f}}{\partial{X^T}} = \cfrac {\ parcial{f}}{\parcial{U^T}}\espacio \cfrac{\parcial{U}}{\parcial{V}} \espacio \cfrac{\parcial{V}}{\parcial{X }}∂X _T∂ f=∂ UT∂ f ∂V _∂ U ∂X _∂V _
Para facilitar el cálculo, lo anterior debe convertirse en un vector fila UTU^TtuT ,XTX^TXcálculo de T. Esto es muy importante.
A continuación se presentan las fórmulas de cálculo de uso común que se encuentran al calcular el recíproco de vectores. Tienen los siguientes dos tipos
1) Dos vectores UUtu ,vvEl resultado del producto escalar de V (vector columna) contraWWW求导:
∂ ( UTV ) ∂ W = ( ∂ U ∂ W ) TV + ( ∂ V ∂ W ) TU ( 4 ) \cfrac{\parcial{(U^TV)}}{\parcial{W}} = ( \cfrac{\parcial{U}}{\parcial{W}})^TV + ( \cfrac{\parcial{V}}{\parcial{W}})^TU \space (4)∂ W∂ ( tuTV )_=(∂ W∂ U)televisión _+(∂ W∂V _)La demostración de la fórmula derivada del producto escalar T U(4)
se complementará más adelante.
Prueba: supongamos queU = [ u 0 u 1 u 3 ] U=\begin{bmatrix} u_0 \\ u_1 \\ u_3 \end{bmatrix}tu=⎣
⎡tu0tu1tu3⎦
⎤和V = [ v 0 v 1 v 3 ] V=\begin{bmatrix} v_0 \\ v_1 \\ v_3 \end{bmatrix}V=⎣
⎡v0v1v3⎦
⎤, que son vectores tridimensionales. Obtenga el producto escalar como f = UTV f=U^TVF=tuT V, que es un escalar como:f = u 0 v 0 + u 1 v 1 + u 2 v 2 f=u_0v_0+u_1v_1+u_2v_2F=tu0v0+tu1v1+tu2v2, y luego buscarlo para WWDerivada de W
∂ F ∂ W = ∂ ( tu 0 v 0 + tu 1 v 1 + tu 2 v 2 ) ∂ W = ∂ tu 0 ∂ W v 0 + ∂ v 0 ∂ W tu 0 + ∂ tu 1 ∂ W v 1 + ∂ v 1 ∂ W tu 1 + ∂ tu 2 ∂ W v 2 + ∂ v 2 ∂ W tu 2 = ( ∂ tu 0 ∂ W v 0 + ∂ tu 1 ∂ W v 1 + ∂ tu 2 ∂ W v 2 ) + ( ∂ v 0 ∂ W tu 0 + ∂ v 1 ∂ W tu 1 + ∂ v 2 ∂ W tu 2 ) = ( ∂ U ∂ W ) TV + ( ∂ V ∂ W ) TU \cfrac{\partial{f}}{ \parcial{W}}=\cfrac{\parcial{(u_0v_0+u_1v_1+u_2v_2)}}{\parcial{W}} \\ =\cfrac{\parcial{u_0}}{\parcial{W}}v_0 + \cfrac{\parcial{v_0}}{\parcial{W}}u_0 + \cfrac{\parcial{u_1}}{\parcial{W}}v_1 + \cfrac{\parcial{v_1}}{\parcial{W }}u_1 + \cfrac{\parcial{u_2}}{\parcial{W}}v_2 + \cfrac{\parcial{v_2}}{\parcial{W}}u_2 \\ =(\cfrac{\parcial{u_0 }}{\parcial{W}}v_0 + \cfrac{\parcial{u_1}}{\parcial{W}}v_1 + \cfrac{\parcial{u_2}}{\parcial{W}}v_2) + (\ cfrac{\parcial{v_0}}{\parcial{W}}u_0 + \cfrac{\parcial{v_1}}{\parcial{W}}u_1 + \cfrac{\parcial{v_2}}{\parcial{W} }u_2)\\ =( \cfrac{\parcial{U}}{\parcial{W}})^TV + ( \cfrac{\parcial{V}}{\parcial{W}})^TU∂ W∂ f=∂ W∂ ( tu0v0+tu1v1+tu2v2)=∂ W∂ tu0v0+∂ W∂v _0tu0+∂ W∂ tu1v1+∂ W∂v _1tu1+∂ W∂ tu2v2+∂ W∂v _2tu2=(∂ W∂ tu0v0+∂ W∂ tu1v1+∂ W∂ tu2v2)+(∂ W∂v _0tu0+∂ W∂v _1tu1+∂ W∂v _2tu2)=(∂ W∂ U)televisión _+(∂ W∂V _)TU _
Se puede generalizar a otras dimensiones. La prueba ha terminado.
Si WWW es un escalar y se sustituye directamente en( 4 ) (4)( 4 ) puede ser. pero siWWW es un vector, en el cálculo, generalmenteWWW se convierte en un vector fila. Porque la definición de la matriz de Jacobi es que el vector columna se puede derivar del vector fila. Así queWWW se puede expresar comoWTW^TWT (vector fila), entonces(4) (4)( 4 ),写成:
∂ ( UTV ) ∂ WT = ( ∂ U ∂ WT ) TV + ( ∂ V ∂ WT ) TU \cfrac{\parcial{(U^TV)}}{\parcial{W^T}} = ( \cfrac{\parcial{U}}{\parcial{W^T}})^TV + ( \cfrac{\parcial{V}}{\parcial{W^T}})^TU∂ WT∂ ( tuTV )_=(∂ WT∂ U)televisión _+(∂ WT∂V _)TU _
2) Dos vectores UUtu ,vvEl resultado del producto vectorial de V (vector columna) contraWWW求导:
∂ ( U × V ) ∂ W = − S kew ( V ) ( ∂ U ∂ W ) + S kew ( U ) ( ∂ V ∂ W ) ( 5 ) \cfrac{\parcial{(U \times V)}}{\parcial{W}} = -Sesgo(V)( \cfrac{\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}} {\parcial{W}}) \espacio (5)∂ W∂ ( tu×V )=- S k mi w ( V ) (∂ W∂ U)+Sesgo ( U ) ( _ _ _∂ W∂V _) ( 5 )
其中
S kew ( U ) = [ 0 − U 3 U 2 U 3 0 − U 1 − U 2 U 1 0 ] Skew(U) = \begin{bmatrix} 0 \space \space -U_3 \space \espacio U_2 \\ U_3 \espacio \espacio 0 \espacio \espacio -U_1 \\ -U_2 \espacio \espacio U_1 \espacio \espacio 0 \end{bmatrix}Sesgo ( U ) _ _ _=⎣
⎡0 −tu3 tu2tu3 0 −tu1− tu2 tu1 0⎦
⎤
Donde S sesgo ( V ) Sesgo (V)S k e w ( V ) es la matriz que convierte el producto cruzado en el producto escalar. Es muy fácil de probar, porque es solo una expansión de matriz.
Para la multiplicación de múltiples vectores, la fórmula necesita ser transformada. El producto cruzado satisface la tasa de distribución.
∂ ( U × V ) ∂ W = ( ∂ U ∂ W ) × V + U × ( ∂ V ∂ W ) ( 6 ) \cfrac{\parcial{(U \times V)}}{\parcial{W}} = ( \cfrac{\parcial{U}}{\parcial{W}}) \times V + U \times ( \cfrac{\parcial{V}}{\parcial{W}}) \space (6)∂ W∂ ( tu×V )=(∂ W∂ U)×V+tu×(∂ W∂V _) ( 6 )
La prueba se completará más adelante. Ambas fórmulas (5) y (6) están resueltas. Sólo la expresión es diferente. Su conversión se agregará más adelante.
Prueba: Establecer U = [ u 0 u 1 u 3 ] U=\begin{bmatrix} u_0 \\ u_1 \\ u_3 \end{bmatrix}tu=⎣ ⎡tu0tu1tu3⎦ ⎤和V = [ v 0 v 1 v 3 ] V=\begin{bmatrix} v_0 \\ v_1 \\ v_3 \end{bmatrix}V=⎣ ⎡v0v1v3⎦ ⎤, que son vectores tridimensionales.
U × V = [ yo j ku 0 tu 1 tu 2 v 0 v 1 v 2 ] = ( tu 1 v 2 - tu 1 v 2 ) yo + ( tu 2 v 0 - tu 0 v 2 ) j + ( tu 0 v 1 − u 1 v 0 ) k U \times V = \begin{bmatrix} i \space \space j \space \space k \\ u_0 \space \space u_1 \space \space u_2 \\ v_0 \space \space v_1 \espacio \espacio v_2 \end{bmatriz} \\ = (u_1v_2 - u_1v_2)i+ (u_2v_0 - u_0v_2)j+ (u_0v_1 - u_1v_0)ktu×V=⎣ ⎡yo k _ tu0 tu1 tu2v0 v1 v2⎦ ⎤=( tu1v2−tu1v2) yo+( tu2v0−tu0v2) j+( tu0v1−tu1v0) k
Es un vector, por lo que cuando se expande, su expresión es la siguiente:
U × V = [ ( tu 1 v 2 − tu 2 v 1 ) ( tu 2 v 0 − tu 0 v 2 ) ( tu 0 v 1 − tu 1 v 0 ) ] U \times V = \begin{bmatrix} ( u_1v_2 - u_2v_1) \\ (u_2v_0 - u_0v_2) \\ (u_0v_1 - u_1v_0) \end{bmatriz}tu×V=⎣ ⎡( tu1v2−tu2v1)( tu2v0−tu0v2)( tu0v1−tu1v0)⎦ ⎤
Después de la expansión, obtenemos lo siguiente:
∂ ( U × V ) ∂ W = [ ∂ ( tu 1 v 2 - tu 2 v 1 ) ∂ W ∂ ( tu 2 v 0 - tu 0 v 2 ) ∂ W ∂ ( tu 0 v 1 - tu 1 v 0 ) ∂ W ] = ∂ ( tu 1 v 2 - tu 2 v 1 ) ∂ WI + ∂ ( tu 2 v 0 - tu 0 v 2 ) ∂ WJ + ∂ ( tu 0 v 1 - tu 1 v 0 ) ∂ WK = ( ∂ tu 1 ∂ W ∗ v 2 + ∂ v 2 ∂ W ∗ tu 1 − ∂ tu 2 ∂ W ∗ v 1 − ∂ v 1 ∂ W ∗ tu 2 ) yo + ( ∂ tu 2 ∂ W ∗ v 0 + ∂ v 0 ∂ W ∗ tu 2 − ∂ tu 0 ∂ W ∗ v 2 − ∂ v 2 ∂ W ∗ tu 0 ) J + ( ∂ tu 0 ∂ W ∗ v 1 + ∂ v 1 ∂ W ∗ tu 0 − ∂ tu 1 ∂ W ∗ v 0 - ∂ v 0 ∂ W ∗ tu 1 ) K = [ ( ∂ tu 1 ∂ W ∗ v 2 - ∂ tu 2 ∂ W ∗ v 1 ) yo + ( ∂ tu 2 ∂ W ∗ v 0 - ∂ tu 0 ∂ W ∗ v 2 ) J + ( ∂ tu 0 ∂ W ∗ v 1 - ∂ tu 1 ∂ W ∗ v 0 ) K ] + [ ( ∂ v 2 ∂ W ∗ tu 1 - ∂ v 1 ∂ W ∗ tu 2 ) yo + ( ∂ v 0 ∂ W ∗ tu 2 − ∂ v 2 ∂ W ∗ tu 0 ) J + ( ∂ v 1 ∂ W ∗ tu 0 − ∂ v 0 ∂ W ∗ tu 1 ) K ] = ( ∂ U ∂ W ) × V − ( ∂ V ∂ W ) × U = − V × ( ∂ U ∂ W ) + U × ( ∂ V ∂ W ) = − S Kew ( V ) ( ∂ U ∂ W ) + S Kew ( U ) ( ∂ V ∂ W ) \cfrac{\partial{(U \timesV)}}{\parcial{W}} = \begin{bmatrix} \cfrac{\parcial{(u_1v_2 - u_2v_1) }}{\parcial{W}} \\ \cfrac{\parcial{ (u_2v_0 - u_0v_2) }}{\parcial{W}}\\ \cfrac{\parcial{ (u_0v_1 - u_1v_0)}}{\parcial{W}}\\ \end{bmatrix} = \cfrac{\parcial{(u_1v_2 - u_2v_1) }}{\parcial{W}} I + \cfrac{\parcial{ (u_2v_0 - u_0v_2)}}{\parcial{W}}J+ \cfrac{\parcial{ (u_0v_1 - u_1v_0)}}{\parcial{W }}K \\ = (\cfrac{\parcial{u_1}}{\parcial{W}}*v_2+\cfrac{\parcial{v_2}}{\parcial{W}}*u_1-\cfrac{\parcial{ u_2}}{\parcial{W}}*v_1-\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I+(\cfrac{\parcial{u_2}}{\parcial{W}} *v_0+\cfrac{\parcial{v_0}}{\parcial{W}}*u_2-\cfrac{\parcial{u_0}}{\parcial{W}}*v_2-\cfrac{\parcial{v_2}}{ \parcial{W}}*u_0)J + (\cfrac{\parcial{u_0}}{\parcial{W}}*v_1+\cfrac{\parcial{v_1}}{\parcial{W}}*u_0-\ cfrac{\parcial{u_1}}{\parcial{W}}*v_0-\cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K \\=[(\cfrac{\parcial{u_1}}{\parcial{W}}*v_2 -\cfrac{\parcial{u_2}}{\parcial{W}}*v_1)I + (\cfrac{\parcial{ u_2}}{\parcial{W}}*v_0 - \cfrac{\parcial{u_0}}{\parcial{W}}*v_2)J + (\cfrac{\parcial{u_0}}{\parcial{W} }*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}*v_0)K] + [(\cfrac{\parcial{v_2}}{\parcial{W}}*u_1 -\cfrac{ \parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac{\parcial{v_0}}{\parcial{W}}*u_2 - \cfrac{\parcial{v_2}}{\parcial {W}}*u_0)J + (\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \times V - ( \cfrac{\parcial{V}}{\parcial{W}}) \times U = -V \ times (\cfrac{\partial{U}}{\partial{W}}) + U \times ( \cfrac{\partial{V}}{\partial{W}})= -Skew(V)( \cfrac {\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})-\cfrac{\parcial{u_2}}{\parcial{W}}*v_1)I + (\cfrac{\parcial{u_2}}{\parcial{W}}*v_0 - \cfrac{\parcial{u_0} }{\parcial{W}}*v_2)J + (\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}* v_0)K] + [(\cfrac{\parcial{v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac {\parcial{v_0}}{\parcial{W}}*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\ parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \veces V - ( \cfrac{\parcial{V}}{\parcial{W}}) \veces U = -V \times (\cfrac{\parcial{U}}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\partial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})-\cfrac{\parcial{u_2}}{\parcial{W}}*v_1)I + (\cfrac{\parcial{u_2}}{\parcial{W}}*v_0 - \cfrac{\parcial{u_0} }{\parcial{W}}*v_2)J + (\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}* v_0)K] + [(\cfrac{\parcial{v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac {\parcial{v_0}}{\parcial{W}}*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\ parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \veces V - ( \cfrac{\parcial{V}}{\parcial{W}}) \veces U = -V \times (\cfrac{\parcial{U}}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\partial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})(\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}*v_0)K] + [(\cfrac{\parcial{ v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac{\parcial{v_0}}{\parcial{W} }*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial {v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \times V - ( \cfrac{\parcial{V} }{\partial{W}}) \times U = -V \times (\cfrac{\partial{U}}{\partial{W}}) + U \times ( \cfrac{\partial{V}}{ \parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{ W}})(\cfrac{\parcial{u_0}}{\parcial{W}}*v_1 - \cfrac{\parcial{u_1}}{\parcial{W}}*v_0)K] + [(\cfrac{\parcial{ v_2}}{\parcial{W}}*u_1 -\cfrac{\parcial{v_1}}{\parcial{W}}*u_2)I + (\cfrac{\parcial{v_0}}{\parcial{W} }*u_2 - \cfrac{\parcial{v_2}}{\parcial{W}}*u_0)J + (\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial {v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial{U}}{\parcial{W}}) \times V - ( \cfrac{\parcial{V} }{\partial{W}}) \times U = -V \times (\cfrac{\partial{U}}{\partial{W}}) + U \times ( \cfrac{\partial{V}}{ \parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{ W}})(\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial {U}}{\partial{W}}) \times V - ( \cfrac{\partial{V}}{\partial{W}}) \times U = -V \times (\cfrac{\partial{U }}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\ parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})(\cfrac{\parcial{v_1}}{\parcial{W}}*u_0 - \cfrac{\parcial{v_0}}{\parcial{W}}*u_1)K] \\ =( \cfrac{\parcial {U}}{\partial{W}}) \times V - ( \cfrac{\partial{V}}{\partial{W}}) \times U = -V \times (\cfrac{\partial{U }}{\parcial{W}}) + U \times ( \cfrac{\parcial{V}}{\parcial{W}})= -Sesgo(V)( \cfrac{\parcial{U}}{\ parcial{W}}) +Sesgo(U)( \cfrac{\parcial{V}}{\parcial{W}})∂ W∂ ( tu×V )=⎣ ⎡∂ W∂ ( tu1v2−tu2v1)∂ W∂ ( tu2v0−tu0v2)∂ W∂ ( tu0v1−tu1v0)⎦ ⎤=∂ W∂ ( tu1v2−tu2v1)I+∂ W∂ ( tu2v0−tu0v2)j+∂ W∂ ( tu0v1−tu1v0)k=(∂ W∂ tu1∗v2+∂ W∂v _2∗tu1−∂ W∂ tu2∗v1−∂ W∂v _1∗tu2) yo+(∂ W∂ tu2∗v0+∂ W∂v _0∗tu2−∂ W∂ tu0∗v2−∂ W∂v _2∗tu0) J+(∂ W∂ tu0∗v1+∂ W∂v _1∗tu0−∂ W∂ tu1∗v0−∂ W∂v _0∗tu1) k=[(∂ W∂ tu1∗v2−∂ W∂ tu2∗v1) yo+(∂ W∂ tu2∗v0−∂ W∂ tu0∗v2) J+(∂ W∂ tu0∗v1−∂ W∂ tu1∗v0) K ]+[(∂ W∂v _2∗tu1−∂ W∂v _1∗tu2) yo+(∂ W∂v _0∗tu2−∂ W∂v _2∗tu0) J+(∂ W∂v _1∗tu0−∂ W∂v _0∗tu1) K ]=(∂ W∂ U)×V−(∂ W∂V _)×tu=− V×(∂ W∂ U)+tu×(∂ W∂V _)=- S k mi w ( V ) (∂ W∂ U)+Sesgo ( U ) ( _ _ _∂ W∂V _)
Los supuestos a , ba , bun ,b es un vector, es fácil de obtener de la siguiente manera
a × b = − b × aa \times b = -b \times aa×b=- segundo×a
Se puede extender de tres dimensiones a vectores multidimensionales. prueba completada