Optimización de problemas cuaternarios que contienen restricciones de módulo unitario


Directorio de artículos


prefacio

El propósito de este artículo es organizar pensamientos.

La función objetivo es aproximadamente de la forma

f O bj ( Θ ) = Tr ⁡ { ∑ i = 1 2 ∑ j = 1 2 Θ T i XT j H Θ HR j HYR i + ∑ i = 1 2 ( Θ T i XT 1 H Θ HSH Θ HR 2 HYR i + Θ S Θ T 1 XT i H Θ HR i HYR 2 ) + Θ S Θ T 1 XT 1 H Θ HSH Θ HR 2 HYR 2 } − 2 l ( Tr ⁡ ( ∑ i = 1 2 GR i Θ T i W + GR 2 Θ S Θ T 1 W ) ), \begin{aligned} & f_{\mathrm{Obj}}(\ballsymbol{\theta}) \\ = & \operatorname { T r } \left\{ \ suma_{i=1}^{2} \sum_{j=1}^{2}\ballsymbol{\theta}\mathbf{T}_{i}\mathbf{X}\mathbf{T}_{j} ^{\mathrm{H}} \ball símbolo{\Theta}^{\mathrm{H}} \mathbf{R}_{j}^{\mathrm{H}} \mathbf{Y} \mathbf{R} _ {i}\correcto. \\ & +\sum_{i=1}^{2}\left(\ballsymbol{\Theta} \mathbf{T}_{i} \mathbf{X} \mathbf{T}_{1}^{\ mathrm{H}} \ball symbol{\Theta}^{\mathrm{H}} \mathbf{S}^{\mathrm{H}} \ballsymbol{\Theta}^{\mathrm{H}} \mathbf{ R }_{2}^{\mathrm{H}}\mathbf{Y}\mathbf{R}_{i}\right.\\&\left. + \ballsymbol{\Theta} \mathbf{S} \ballsymbol{\Theta} \mathbf{T}_{1} \mathbf{X} \mathbf{T}_{i}^{\mathrm{H}}\ símbolo de bola {\Theta}^{\mathrm{H}}\mathbf{R}_{i}^{\mathrm{H}}\mathbf{Y}\mathbf{R}_{2}\right) \\ & izquierda. + \ballsymbol {\Theta S} \ballsymbol{\Theta} \mathbf{T}_{1} \mathbf{X} \mathbf{T}_{1}^{\mathrm{H}} \ballsymbol{\Theta }^{\mathrm{H}} \mathbf{S}^{\mathrm{H}} \ballsymbol{\Theta}^{\mathrm{H}} \mathbf{R}_{2}^{\mathrm{ H}} \mathbf{Y} \mathbf{R}_{2} \right\} \\ & -2 \Re\left(\operatorname{ T r }\left(\sum_{i=1}^{2 } \mathbf{G} \mathbf{R}_{i} \ballsymbol{\theta} \mathbf{T}_{i} \mathbf{W}+\mathbf{G} \mathbf{R}_{2} \ballsymbol{\Theta}\mathbf{S}\ballsymbol{\Theta}\mathbf{T}_{1}\mathbf{W}\right)\right), \end{aligned}=Fobjeto( yo )tr{ yo = 12j = 12ΘT _yoxt _jhelRRHH _jhYR _yo+yo = 12( ΘT _yoxt _1helhs _H ΘRRHH _2hYR _yo+ Θ S Θ T1xt _ihelRRHH _ihYR _2)+ Θ S Θ T1xt _1helhs _H ΘRRHH _2hYR _2}2ℜ( tr(yo = 12GR _yoΘT _yoW.+GR _2Θ S Θ T1W ) ),

Definición Tr ⁡ ( XYZW ) = vec ⁡ ( XH ) H ( WT ⊗ Y ) vec ( Z ) \operatorname{Tr}(\mathbf{XYZW})=\operatorname{vec}(\mathbf{X}^\mathrm { H})^\mathr{H}(\mathbf{W}^\mathr{T}\otimes\mathbf{Y})\text{vec}(\mathbf{Z})Tr ( XYZW )=cosa ( Xh )alto (anchotY ) vec ( Z ) yTr ( Θ P ) = θ H p ∗ \text{Tr}(\ball symbol{\Theta}\mathbf{P}) = \ball symbol{\theta}^{\mathrm{H }} \mathbf{p}^\astTr ( Θ P )=iHP _
Deformado para conseguir

f Obj ( Θ ) = vec ⁡ ( Θ ) HA vec ⁡ ( Θ ) + vec ⁡ ( Θ ) HB vec ⁡ ( Θ S Θ ) + vec ⁡ ( Θ S Θ ) HBH vec ⁡ ( Θ ) + vec ⁡ ( Θ S Θ ) HC vec ⁡ ( Θ S Θ ) − 2 ℜ ( θ H p ∗ + vec ⁡ ( Θ H ) HD vec ⁡ ( Θ ) ),\begin{array}{l} f_{\text {Obj }}(\boldsymbol{\Theta}) \\ =\operatorname{vec}\left(\boldsymbol{\Theta}\right)^{\mathrm{H }} \boldsymbol{A} \operatorname{vec}\left(\boldsymbol{\Theta}\right) +\operatorname{vec}\left(\boldsymbol{\Theta}\right)^{\mathrm{H}} \mathbf{B} \operatorname{vec}\left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)\\ +\operatorname{vec}\left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)^{\mathrm{H}} \mathbf{B}^{\mathrm{H}} \operatorname{vec}\left(\boldsymbol{\Theta}\ derecha) +\operatorname{vec}\left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)^{\mathrm{H}} \mathbf{C} \operatorname{ve c} \left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)\\ -2 \Re\left(\boldsymbol{\theta}^{\mathrm{H}} \mathbf{p }^{\ast}+\operatorname{vec}\left(\boldsymbol{\Theta}^{\mathrm{H}}\right)^{\mathrm{H}}\mathbf{D} \operatorname{vec}\left(\boldsymbol{\Theta}\right)\right), \end{array}Fobjeto ( yo )=vec( yo )hAvec( yo )+vec( yo )hBvec( Θ S Θ )+vec( Θ S Θ )hBhvec( yo )+vec( Θ S Θ )hCvec( Θ S Θ )2 ℜ( yoHP _+vec( _h )hDvec( yo ) ),

AA_ _A ,BBB ,CCC ,DDD

A = ∑ i = 1 2 ∑ j = 1 2 ( ( T i XT j H ) T ⊗ R j HYR i ) B = ∑ i = 1 2 ( T 1 XT i H ) T ⊗ R i HYR 2 C = ( T 1 XT 1 H ) T ⊗ R 2 HYR 2 , D = ( T 1 WGR 2 ) T ⊗ S , P = ( ∑ i = 1 2 T i WGR i ) \begin{align} &\mathbf{A}=\sum\limits_{i=1}^2\sum\limits_{j=1}^2((\mathbf{T}_i\mathbf{X}\mathbf{ T}_j^{\mathrm{H}})^{\mathrm{T}}\otimes \mathbf{R}_{j}^{\mathrm{H}}\mathbf{Y}\mathbf{R}_ {i})\\ &\mathbf{B}=\sum\limits_{i=1}^2(\mathbf{T}_1\mathbf{X}\mathbf{T}_i^\mathrm{H})^ \mathrm{T} \otimes \mathbf{R}_{i}^\mathbf{H}\mathbf{Y}\mathbf{R}_{2}\\ &\mathbf{C}=(\mathbf{T }_1\mathbf{X}\mathbf{T}_1^\mathbf{H})^\mathrm{T} \otimes \mathbf{R}_{2}^{\mathbf{Y}{\ mathbf{R} }_{2}, \\ &\mathbf{D}= (\mathbf{T}_1\mathbf{W}\mathbf{G}\mathbf{R}_{2})^{\mathrm {T}} \otimes\mathbf{S}, \mathbf{P}=(\sum\limits_{i=1}^{2}\mathbf{T}_i\mathbf{W}\mathbf{G}\mathbf{R}_{i}). \end{alinear}A=yo = 12j = 12(( tyoxt _jh)tRjhYR _yo)B=yo = 12( t1xt _ih)tRihYR _2C=( t1xt _1h)tR2hYR _2,D=( t1Grupo de Trabajo R2)tS ,PAG=(yo = 12tyoGrupo de Trabajo Ryo) .

Gracias a la escasa estructura de vec ⁡ ( Θ ) \operatorname{vec}(\boldsymbol{\Theta})vec ( Θ ) , la
función objetivo \eqref{yuan11} se puede simplificar aún más. Específicamente, seaA 0 ∈ CL × L \mathbf{A}_0 \in \mathbb{C}^{L \times L}A0CL × L yD 0 ∈ CL × L \mathbf{D}_0 \in \mathbb{C}^{L \times L}D0CL × L estará formado por todos los elementos en
las intersecciones de[ ( m − 1 ) L + m ] [(m-1)L + m][( m1 ) yo+m ] aésima fila y la
[ ( n − 1 ) L + n ] [(n-1)L+n][( n1 ) yo+n ] ésima columna deA \mathbf{A}A yD \mathbf{D}D param , n = 1 , ⋯ , L m,n=1,\cdots,Lmetro ,norte=1 ,,L ,
respectivamente. B 0 \mathbf{B}_0B0se compone de todos los elementos de las filas
[ ( q − 1 ) L + q ] [(q-1)L+q][( q1 ) yo+q ] ,$q=1, \cdots,L $,deB \mathbf{B}B yC 0 = C \mathbf{C}_0=\mathbf{C}C0=C. _ Definimos
v ≜ vec ⁡ ( Θ S Θ ) = ( Θ T ⊗ Θ ) vec ⁡ ( S ) \mathbf{v} \triangleq \operatorname{vec}(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{ \Theta})=\left(\boldsymbol{\Theta}^{\mathrm{T}} \otimes \boldsymbol{\Theta}\right) \operatorname{vec}(\mathbf{S})vvec ( Θ S Θ )=( _tyo )vec ( S ) . Entonces el subproblema en
términos del patrón de reflexión común del IRS se expresa como

Es decir, se puede expresar como

A 0 = ∑ i = 1 2 ∑ j = 1 2 ( ( T i XT j H ) T ⊙ R j HYR i ) D 0 = ( T 1 WGR 2 ) T ⊙ S \begin{align} &\mathbf{A}_0=\sum\limits_{i=1}^2\sum\limits_{j=1}^2((\mathbf{T}_i\mathbf{X}\mathbf {T}_j^{\mathrm{H}})^{\mathrm{T}}\odot \mathbf{R}_{j}^{\mathrm{H}}\mathbf{Y}\mathbf{R} _{i})\\ &\mathbf{D}_0= (\mathbf{T}_1\mathbf{W}\mathbf{G}\mathbf{R}_{2})^{\mathrm{T}} \odot \mathbf{S}. \end{alinear}A0=yo = 12j = 12(( tyoxt _jh)tRjhYR _yo)D0=( t1Grupo de Trabajo R2)tS. _

index_B0 = [];
for i = 1:M
    index_B0 = [index_B0,(i - 1)*M + i];
end
B0 = B(index_B0,:);
%M * M^2   % [(q−1)M + q], q=1, . . . ,M的行

B 0 \mathbf{B}_0B0se puede obtener mediante dicho código

Entonces hay tal pregunta.
min ⁡ θ θ H A 0 θ + θ H B 0 v + v H B 0 H θ + v H C 0 v − 2 ℜ ( θ H p ∗ + θ H D 0 ∗ θ ∗ )  s.t.  v = ( Θ T ⊗ Θ ) vec ⁡ ( S ) , Θ = diag ⁡ { θ 1 , ⋯   , θ M } , ∣ θ i ∣ = 1 , i ∈ { 1 , ⋯   , L } . \begin{aligned} \min _{\boldsymbol{\theta}} & \boldsymbol{\theta}^{\mathrm{H}} \mathbf{A}_0 \boldsymbol{\theta}+\boldsymbol{\theta}^{\mathrm{H}} \mathbf{B}_0 \mathbf{v}+\mathbf{v}^{\mathrm{H}} \mathbf{B}_0^{\mathrm{H}} \boldsymbol{\theta}+\mathbf{v}^{\mathrm{H}} \mathbf{C}_0 \mathbf{v}-2 \Re\left(\boldsymbol{\theta}^{\mathrm{H}} \mathbf{p}^*+\boldsymbol{\theta}^{\mathrm{H}} \mathbf{D}_0^* \boldsymbol{\theta}^*\right) \\ \text { s.t. } & \mathbf{v}=\left(\boldsymbol{\Theta}^{\mathrm{T}} \otimes \boldsymbol{\Theta}\right) \operatorname{vec}(\mathbf{S}), \\ & \boldsymbol{\Theta}=\operatorname{diag}\left\{\theta_1, \cdots, \theta_M\right\}, \\ & \left|\theta_i\right|=1, \quad i \in\{1, \cdots, L\} . \end{aligned} imin calle iha _0i+iHB _0v+vHB _0hi+vHC _0v2ℜ( yoHP _+iHD _0i )v=( _tyo )cosa ( S ) ,el=diagnóstico{ yo1,,im},∣θ _yo=1 ,i{ 1 ,,L } .

Btilde = [];
for i = 1:M
     Btilde = [Btilde,B0(:,(i-1)*M+1:i*M)*diag(S(:,i))];
end
%M * M^2

El problema \eqref{DoubleIRSP3} todavía es difícil de encontrar solución debido al
acoplamiento de θ \boldsymbol{\theta}θ yS \mathbf{S}S en el vectorv \mathbf{v}v . A continuación, intentamos
separarlos. DefinirB 0 ≜ [ B 0 , 1 , ⋯ , B 0 , L ] ∈ CL × L 2 \mathbf{B}_0 \triangleq[\mathbf{B}_{0,1},\cdots,\mathbf{B }_{0,L}]\in\mathbb{C}^{L\timesL^2}B0[ B0 , 1,,B0 , L]CLargo × Largo2 ,
dondeB 0 , p ∈ CL × L 2 \mathbf{B}_{0,p} \in \mathbb{C}^{L \times L^2}B0 , pagCLargo × Largo2 es la matriz de bloques que consta de
[ ( p − 1 ) L + 1 ] [(p-1)L+1][( pag.1 ) yo+1 ] ésimo al[ p L ] [pL][ p L ] ésima columna deB 0 \mathbf{B}_{0}B0para p = 1 , ⋯ , L p=1, \cdots,Lpag=1 ,,l .

donde si \mathbf{s}_isyoes el iii- ésima columna deS \mathbf{S}S ,
B ~ = [ B 0 , 1 día ⁡ ( s 1 ) , ... , B 0 , L día ⁡ ( s L ) ] \assign{\mathbf{B}}=\left[\mathbf{B} _{ 0.1} \operatorname{diag}\left(\mathbf{s}_{1}\right), \ldots,\mathbf{B}_{0, L} \operatorname{diag}\left(\mathbf{ s}_{L}\derecha)\derecha]B~=[ B0 , 1diagnóstico( s1),,B0 , Ldiagnóstico( sL) ] y
C ~ = [ C ~ 1 día ⁡ ( s 1 ) , ... , CL ~ día ⁡ ( s L ) ] \index{\mathbf{C}}=\left[\index{\mathbf{C }} _{1} \operatorname{diag}\left(\mathbf{s}_{1}\right), \ldots, \tilde{\mathbf{C}_{L}}\operatorname{diag}\left (\ mathbf{s}_{L}\right)\right]C~=[C~1diagnóstico( s1),,CL~diagnóstico( sL) ]
con
C ~ l = [ diag ⁡ ( s 1 H ) C 0 , 1 , l , ... , diag ⁡ ( s LH ) C 0 , L , l ] T \tilde{\mathbf{C}}_ {l }=\left[\operatorname{diag}\left(\mathbf{s}_{1}^{\mathrm{H}}\right) \mathbf{C}_{0,1, l}, \ ldots, \operatorname{diag}\left(\mathbf{s}_{L}^{\mathrm{H}}\right) \mathbf{C}_{0, L, l}\right]^{\mathrm {T}}C~yo=[ diagnóstico( s1h)C0 , 1 , l,,diagnóstico( slh)C0 , L , l]t _ Según
las definiciones anteriores, el problema \eqref{DoubleIRSP3} se convierte en

Ctilde = zeros(M^2,M^2);
%M = 100;
%C0 = ones(M^2,M^2);
%S = rand(M,M);
for i=1:M
    for j=1:M
        Ctilde((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M) = C0((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M)*diag(S(i,:)')*diag(S(:,j));
    end
end

% Ctilde  M^2 M^2

Empalme para obtener Wtilde

min ⁡ θ θ ~ HW ~ θ ~ − 2 i ( θ H p ∗ + θ HD 0 ∗ θ ∗ ) conjunto ∣ θ i ∣ = 1 , i ∈ { 1 , ⋯ , L } , \begin{array}{l } \min _{\símbolo de bola{\theta}} \tilde{\ballsymbol{\theta}}^{\mathrm{H}} \tilde{\mathbf{W}} \tilde{\ballsymbol{\theta}} - 2 \Re\left(\ballsymbol{\theta}^{\mathrm{H}}\mathbf{p}^{*}+\ballsymbol{\theta}^{\mathrm{H}}\mathbf{D} _ {0}^{*} \ball símbolo{\theta}^{*}\right) \\ \text { st }\left|\theta_{i}\right|=1, \quad i \in\{ 1, \cdots, L\} \text {, } \\\end{matriz}mín.ii~hW.~i~2ℜ( yoHP _+iHD _0i ) calle ∣θ _yo=1 ,i{ 1 ,,L } , 

donde, θ ~ = [ θ T , ( θ ⊗ θ ) T ] T \tilde{\boldsymbol{\theta}}=\left[\boldsymbol{\theta}^{\mathrm{T}}, \left( \ negritasymbol{\theta} \otimes \boldsymbol{\theta} \right)^\mathrm{T} \right]^{\mathrm{T}}i~=[ yoT ,( yoyo )T ]T ,
W ~ = [ A 0 B ~ B ~ HC ~ ] \tilde{\mathbf{W}}=\left[\begin{array}{cc} \mathbf{A}_{0} & \tilde{\ mathbf{B}}\\\attribute{\mathbf{B}}^{\mathrm{H}} & \attribute{\mathbf{C}}\end{array}\right]W.~=[A0B~hB~C~]

Se puede encontrar fácilmente
que
W ~ \tilde{\mathbf{W}}W.~
es la matriz hermitiana. Luego, para obtener la
solución de forma cerrada, se puede
construir una función sustituta más manejable mediante la técnica MM. Suponiendo el óptimo
θ t \boldsymbol{\theta}_titen el ttt ésima iteración, una función sustituta deθ ~ HW ~ θ ~ wrt θ ~ \tilde{\boldsymbol{\theta}}^{\mathrm{H}} \tilde{\mathbf{W}} \tilde{\boldsymbol{ \theta}} \text { wrt } \tilde{\boldsymbol{\theta}}i~hW.~i~  wrt i~
se puede derivar como \cite{MMalgoritmo}

下一步用MM算法
θ ~ HW ~ θ ~ ≤ θ ~ H Λ θ ~ + 2 ℜ ( θ ~ H ( W ~ − Λ ) θ ~ t ) + θ ~ t H ( W ~ − Λ ) θ ~ t , \tilde{\boldsymbol{\theta}}^{\mathrm{H}} \tilde{\mathbf{W}} \tilde{\boldsymbol{\theta}} \leq \tilde{\boldsymbol{\theta}}^ {\mathrm{H}} \boldsymbol{\Lambda} \tilde{\boldsymbol{\theta}}+2 \Re\left(\tilde{\boldsymbol{\theta}}^{\mathrm{H}}(\ tilde{\mathbf{W}}-\boldsymbol{\Lambda}) \tilde{\boldsymbol{\theta}}_{t}\right)+\tilde{\boldsymbol{\theta}}_{t}^{ \mathrm{H}}(\tilde{\mathbf{W}}-\boldsymbol{\Lambda}) \tilde{\boldsymbol{\theta}}_{t},i~hW.~i~i~L_ _i~+2ℜ(i~H (W.~l )i~t)+i~th(W.~l )i~t,

Luego se puede simplificar aún más:
donde Λ = λ max ⁡ ( W ~ ) IL 2 + L \boldsymbol{\Lambda}=\lambda_{\max }(\tilde{\mathbf{W}}) \mathbf{I} _ {L^{2}+L}l=yom a x(W.~ )yol2 +L. Para evitar la alta complejidad inducida por la descomposición de valores propios de
W ~ \tilde{\mathbf{W}}W.~
, es decir,
O ( L 2 + L ) 3 \mathcal{O}\left(L^{2}+L\right)^{3}oh( l2+l )3 , elegimosΛ = Tr ⁡ ( W ~ ) IL 2 + L \boldsymbol{\Lambda}=\operatorname{Tr}(\tilde{\mathbf{W}}) \mathbf{I}_{L^{2 }+L}l=tr (W.~ )yol2 +L
como otro parámetro auxiliar eficiente. Además,
al emplear la propiedad del módulo unitario de los
coeficientes de reflexión del IRS, θ ~ H Λ θ ~ \tilde{\boldsymbol{\theta}}^{H} \boldsymbol{\Lambda} \tilde{\boldsymbol{\theta }}i~L_ _i~ se puede transformar comoTr ⁡ ( W ~ ) ( L + L 2 ) \operatorname{Tr}(\tilde{\mathbf{W}})\left(L+L^{2}\right)tr (W.~ )( l+l2 ),
que es un término constante irrelevante para la variable de optimización.
θ ~ t H ( W ~ − Λ ) θ ~ t \tilde{\boldsymbol{\theta}}_{t}^{\mathrm{H}}(\tilde{\mathbf{W}}-\boldsymbol{\ Lambda}) \tilde{\boldsymbol{\theta}}_{t}i~th(W.~l )i~ttambién es una constante porque
θ ~ t \tilde{\boldsymbol{\theta}}_{t}i~tya se
sabe en el ttt aésima iteración. Por lo tanto, la función objetivo
en el problema \eqref{DoubleIRSP4} se simplifica como

2 ℜ ( θ ~ H ( W ~ − Λ ) θ ~ t ) − 2 ℜ ( θ H p ∗ − θ HD 0 ∗ θ ∗ ) = 2 ℜ ( θ H u ~ t + ( θ H ⊗ θ H ) V t − θ HD 0 ∗ θ ∗ ) = 2 ℜ ( θ H u ~ t + θ HV ~ t θ ∗ ),\begin{alineado} & 2 \Re\left(\tilde{\ballsymbol{\theta}}^{\mathrm{H}}(\tilde{\mathbf{W}}-\ballsymbol{\Lambda}) \tilde {\ballsymbol{\theta}}_{t}\right)-2 \Re\left(\ballsymbol{\theta}^{\mathrm{H}} \mathbf{p}^{*}-\ballsymbol{\ theta}^{\mathrm{H}}\mathbf{D}_{0}^{*}\ballsymbol{\theta}^{*}\right) \\ = & 2 \Re\left(\ballsymbol{\ theta}^{\mathrm{H}} \assign{\mathbf{u}}_{t}+\left(\ballsymbol{\theta}^{\mathrm{H}} \otimes\ballsymbol{\theta}^ {\mathrm{H}}\right) \mathbf{V}_{t}-\ballsymbol{\theta}^{\mathrm{H}}\mathbf{D}_{0}^{*}\ballsymbol{ \theta}^{*}\right) \\ = & 2 \Re\left(\ballsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{u}}_{t}+\ballsymbol {\theta}^{\mathrm{H}} \assign{\mathbf{V}}_{t}\símbolo de bola{\theta}^{*}\right), \end{aligned}==2ℜ(i~H (W.~l )i~t)2ℜ( yoHP _iHD _0i )2ℜ( yohtu~t+( yohih )VtiHD _0i )2ℜ( yohtu~t+ihV~ti ),

donde u ~ t = ( A 0 − λ max ⁡ ( W ~ ) IL ) θ ~ t + B ~ ( θ ~ t ⊗ θ ~ t ) − p ∗ \tilde{\mathbf{u}}_{t}= \left(\mathbf{A}_{0}-\lambda_{\max }(\tilde{\mathbf{W}}) \mathbf{I}_{L}\right) \tilde{\boldsymbol{\theta }}_{t}+\tilde{\mathbf{B}}\left(\tilde{\boldsymbol{\theta}}_{t} \otimes \tilde{\boldsymbol{\theta}}_{t}\ derecha)-\mathbf{p}^{*}tu~t=( Un0yom a x(W.~ )yoL)i~t+B~(i~ti~t)pag ,
V t = B ~ H θ ~ t + ( C ~ − λ max ⁡ ( W ~ ) IL 2 ) ( θ ~ t ⊗ θ ~ t ) \mathbf{V}_t = \tilde{\mathbf{B} }^{\mathrm{H}} \tilde{\boldsymbol{\theta}}_{t}+\left(\tilde{\mathbf{C}}-\lambda_{\max }(\tilde{\mathbf{ W}}) \mathbf{I}_{L^{2}}\right)\left(\tilde{\boldsymbol{\theta}}_{t} \otimes \tilde{\boldsymbol{\theta}}_ {t}\derecha)Vt=B~hi~t+(C~yom a x(W.~ )yol2)(i~ti~t) ,
V ~ t = V ^ t − D 0 ∗ \tilde{\mathbf{V}}_{t}=\hat{\mathbf{V}}_{t}-\mathbf{D}_{0} ^{*}V~t=V^tD0.
V t ^ \hat{\mathbf{V}_t}Vt^es la versión remodelada de V t \mathbf{V}_tVt, es decir, V t = vec ⁡ ( V ^ t ) \mathbf{V}_{t}=\operatorname{vec}\left(\hat{\mathbf{V}}_{t}\right)Vt=vec(V^t) , Entonces
el problema \eqref{DoubleIRSP4} se transforma de manera equivalente en

min ⁡ θ 2 ℜ ( θ H u ~ t + θ HV ~ t θ ∗ ) st ∣ θ i ∣ = 1 , i ∈ { 1 , ⋯ , L } . \begin{aligned} & \min _{\boldsymbol{\theta}} 2 \Re\left(\boldsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{u}}_{t} +\boldsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{V}}_{t} \boldsymbol{\theta}^{*}\right) \\ & \text { st }\ izquierda|\theta_{i}\right|=1, \quad i \in\{1, \cdots, L\} . \end{alineado}imin2ℜ( yohtu~t+ihV~ti ) calle ∣θ _yo=1 ,i{ 1 ,,L } .

Usando el algoritmo MM, hemos transformado el problema original de cuarto orden \eqref{DoubleIRSP4} en un problema de segundo orden \eqref{DoubleIRSP5}. Tal
procedimiento disminuye en gran medida la dificultad y complejidad para
resolver el problema. Sin embargo, el problema \eqref{DoubleIRSP5} todavía no es
convexo. Para obtener la solución, consideramos utilizar
nuevamente el algoritmo MM para encontrar una función sustituta más manejable.
Para ser específico, defina θ ‾ ≜ [ ℜ { θ T } , ℑ { θ T } ] T \overline{\boldsymbol{\theta}} \triangleq\left[\Re\left\{\boldsymbol{\theta}^ {T}\right\} , \Estoy\left\{\boldsymbol{\theta}^{T}\right\}\right]^{T}i[{ yot },{ yoT }]T yV ˉ t ≜ [ ℜ { V ~ t } ℑ { V ~ t } ℑ { V ~ t } − ℜ { V ~ t } ] \bar{\mathbf{V}}_t \triangleq \left[\begin {array}{cc} \Re\left\{\tilde{\mathbf{V}}_{t}\right\} & \Estoy\left\{\tilde{\mathbf{V}}_{t}\ right\} \\ \Estoy\left\{\tilde{\mathbf{V}}_{t}\right\} & -\Re\left\{\tilde{\mathbf{V}}_{t}\ derecha\} \end{array}\derecha]Vˉt { V~t}{ V~t}{ V~t}{ V~t} . . . . La función real No { θ HV ~ t θ ∗ } \Re\left\{\ballsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{V}}_{t} \ballsymbol{\theta }^{*}\derecha\}{ yohV~ti }se puede
expresar comoθ ‾ TV θ ‾ \overline{\ball symbol{\theta}}^{\mathrm{T}} \overline{\mathbf{V}\ball symbol{\theta}};itV θ. Luego, basándose en la expansión de Taylor de segundo orden, se obtiene una función sustituta convexa de θ ‾ TV θ ‾ \overline{\boldsymbol{\theta}}^{\mathrm{T}} \overline{\mathbf{V} \boldsymbol{ \theta}}itV θ(es decir, ℜ { θ HV ~ t θ ∗ } \Re\left\{\boldsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{V}}_{t} \boldsymbol{\theta }^{*}\derecha\}{ yohV~ti }) se deriva como \cite{diedaituidao1}:

θ ‾ TV θ ‾ ≤ θ ‾ t TV ‾ t θ ‾ t + θ ‾ t T ( V ‾ t + V ‾ t T ) ( θ ‾ − θ ‾ t ) + λ 2 ( θ ‾ − θ ‾ t ) T ( θ ‾ − θ ‾ t ) = ℜ { θ HU v ‾ t } + c ,\begin{aligned} \overline{\boldsymbol{\theta}}^{\mathrm{T}} \overline{\mathbf{V} \boldsymbol{\theta}} & \leq \overline{\boldsymbol{\theta} }_{t}^{\mathrm{T}} \overline{\mathbf{V}}_{t} \overline{\boldsymbol{\theta}}_{t}+\overline{\boldsymbol{\theta} }_{t}^{\mathrm{T}}\left(\overline{\mathbf{V}}_{t}+\overline{\mathbf{V}}_{t}^{\mathrm{T} }\right)\left(\overline{\boldsymbol{\theta}}-\overline{\boldsymbol{\theta}}_{t}\right)\\ & +\frac{\lambda}{2}\left (\overline{\boldsymbol{\theta}}-\overline{\boldsymbol{\theta}}_{t}\right)^{\mathrm{T}}\left(\overline{\boldsymbol{\theta}} -\overline{\boldsymbol{\theta}}_{t}\right) \\ & =\Re\left\{\boldsymbol{\theta}^{\mathrm{H}} \mathbf{U} \overline{ \mathbf{v}}_{t}\right\}+c, \end{alineado}itV θittVtit+itt(Vt+Vtt)(iit)+2yo(iit)t(iit)={ yoHU _vt}+c ,

donde θ ‾ t ≜ [ ℜ { θ t T } , ℑ { θ t T } ] T \overline{\boldsymbol{\theta}}_{t} \triangleq\left[\Re\left\{\boldsymbol{\ theta}_{t}^{\mathrm{T}}\right\} , \Estoy\left\{\boldsymbol{\theta}_{t}^{\mathrm{T}}\right\}\right] ^{\mathrm{T}}it[{ yott},{ yott} ]T ,
λ ≜ λ max ⁡ ( V ‾ t + V ‾ t T ) \lambda \triangle \lambda_{\max }\left(\overline{\mathbf{V}}_{t}+\overline{\mathbf{ V}}_{t}^{\mathrm{T}}\derecha)yoyom a x(Vt+Vtt)
yv ‾ t ≜ ( V ‾ t + V ‾ t T − λ I 2 L ) θ ‾ t \overline{\mathbf{v}}_{t} \triangle\left(\overline{\mathbf{V} }_{t}+\overline{\mathbf{V}}_{t}^{\mathrm{T}}-\lambda \mathbf{I}_{2 L}\right) \overline{\símbolo de bola{ \theta}}_{t}vt(Vt+Vttyo_ _2 litros)it,
ccc es una constante irrelevante paraθ \boldsymbol{\theta}θ . U ≜ [ IL , ȷ IL ] \mathbf{U} \triangleq\left[\mathbf{I}_{L} , \jmath \mathbf{I}_{L}\right]Ud.[ yoL,yoL] se define para convertir la función de valor real nuevamente a la función de valor complejo original. Entonces el problema \ref{DoubleIRSP5}
es equivalente a

min ⁡ θ 2 ℜ ( θ H ft ) , st ∣ θ i ∣ = 1 , ∀ i , \begin{ecuación} \min _{\boldsymbol{\theta}} 2 \Re\left(\boldsymbol{\theta} ^{\mathrm{H}} \mathbf{f}_{t}\right), \quad \text { st }\left|\theta_{i}\right|=1, \forall i, \end{ecuación }imin2ℜ( yoh ft), calle ∣θ _yo=1 ,yo ,

donde ft = u ~ t + U v ‾ t \mathbf{f}_{t}=\tilde{\mathbf{u}}_{t}+\mathbf{U} \overline{\mathbf{v}}_ {t}Ft=tu~t+Ud.vt. Los
coeficientes de reflexión óptimos del IRS común se obtienen como

θ opt = − ej arg ⁡ (pies). \begin{ecuación}\ballsymbol{\theta}^{\mathrm{opt}}=-e^{j \arg \left(\mathbf{f}_{t}\right)}. \end{ecuación}ioptar=mija r g ( ft) .

En resumen, para el subproblema de optimización del patrón de reflexión común de doble IRS, esta sección extiende el subproblema cuártico original a una dimensión de matriz superior y utiliza el algoritmo MM dos veces para encontrar la función sustituta. Derivamos la expresión en forma cerrada de la solución subóptima.

todos los codigos


function  thet_next = optimingThetaDoubleIRS(Theta,M,W,G,ks,kd,T1,T2,R1,R2,S)

thet = diag(Theta);

%Hadamard积就是同维度矩阵逐一元素相乘

A0 = transpose(T1 * W * W' * T1') .* (R1' * G'* G * R1) + transpose(T1 * W * W' * T2') .* (R2' * G'* G * R1) + ...
     transpose(T2 * W * W' * T1') .* (R1' * G'* G * R2) +  transpose(T2 * W * W' * T2') .* (R2' * G'* G * R2)+ ...
     ks * transpose(T1 * diag(diag(W * W')) * T1') .* (R1' * G'* G * R1) + ks * transpose(T1 * diag(diag(W * W')) * T2') .* (R2' * G'* G * R1) + ...
     ks * transpose(T2 * diag(diag(W * W')) * T1') .* (R1' * G'* G * R2) +  ks * transpose(T2 * diag(diag(W * W')) * T2') .* (R2' * G'* G * R2)+ ...
     kd * transpose(T1 * W * W' * T1') .* (R1' * diag(diag(G'* G)) * R1) + kd * transpose(T1 * W * W' * T2') .* (R2' * diag(diag( G'* G)) * R1) + ...
     kd * transpose(T2 * W * W' * T1') .* (R1' * diag(diag(G'* G)) * R2) + kd * transpose(T2 * W * W' * T2') .* (R2' * diag(diag(G'* G)) * R2)+ ...
     ks * kd * transpose(T1 * diag(diag(W * W')) * T1') .* (R1' * diag(diag(G'* G)) * R1) + ks * kd * transpose(T1 * diag(diag(W * W')) * T2') .* (R2' * diag(diag( G'* G)) * R1) + ...
     ks * kd * transpose(T2 * diag(diag(W * W')) * T1') .* (R1' * diag(diag(G'* G)) * R2) + ks * kd * transpose(T2 * diag(diag(W * W')) * T2') .* (R2' * diag(diag(G'* G)) * R2) ;
     % M *M



D0  =  transpose(T1 * W * G * R2) .* S ;

B =  kron( transpose(T1 * W * W' * T1') , (R1' * G'* G * R2) ) + kron( transpose(T1 * W * W' * T2') , (R2' * G'* G * R2) ) + ...
     ks * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R1' * G'* G * R2) ) + ks * kron( transpose(T1 * diag(diag(W * W')) * T2') , (R2' * G'* G * R2) ) + ...
     kd * kron( transpose(T1 * W * W' * T1') , (R1' * diag(diag(G'* G)) * R2) ) + kd * kron( transpose(T1 * W * W' * T2') , (R2' * diag(diag(G'* G)) * R2) ) + ...
     ks * kd * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R1' * diag(diag(G'* G)) * R2) ) + ks * kd * kron( transpose(T1 * diag(diag(W * W')) * T2') , (R2' * diag(diag(G'* G)) * R2) ) ;
     % M^2 * M^2
C =  kron( transpose(T1 * W * W' * T1') , (R2' * G'* G * R2) ) + ...
      ks * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R2' * G'* G * R2) ) + ...
      kd * kron( transpose(T1 * W * W' * T1') , (R2' * diag(diag(G'* G)) * R2) ) + ...
      ks * kd * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R2' * diag(diag(G'* G)) * R2) ) ;
       % M^2 * M^2
C0 = C;  

%D = kron( transpose(T1 * W * G * R2 ), S  );

P = T1 * W *G * R1 + T2 * W *G *R2; % M *M
p = diag(P);

index_B0 = [];
for i = 1:M
    index_B0 = [index_B0,(i - 1)*M + i];
end
B0 = B(index_B0,:);
%M * M^2   % [(q−1)M + q], q=1, . . . ,M的行
Btilde = [];
for i = 1:M
     Btilde = [Btilde,B0(:,(i-1)*M+1:i*M)*diag(S(:,i))];
end
%M * M^2

Ctilde = zeros(M^2,M^2);
%M = 100;
%C0 = ones(M^2,M^2);
%S = rand(M,M);
for i=1:M
    for j=1:M
        Ctilde((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M) = C0((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M)*diag(S(i,:)')*diag(S(:,j));
    end
end

% Ctilde  M^2 M^2

Wtilde = cat(1, cat(2,A0,Btilde), cat(2,Btilde',Ctilde));
%maxeigWtilde = max(eig(Wtilde));
maxeigWtilde = trace(Wtilde);
 utilde = (A0 - maxeigWtilde.*eye(M))*thet + Btilde * kron(thet,thet) - conj(p);  % M 1

 U = [eye(M) , 1j * eye(M)];

 V = Btilde' * thet + (Ctilde - maxeigWtilde * eye(M^2)) * kron(thet,thet); % M^2 * 1
 Vhat = transpose(reshape(V,[M,M])); % M * M
 Vtilde = Vhat - conj( D0 );  % M * M
 Vbar = cat(1, cat(2,real(Vtilde),imag(Vtilde)), cat(2,imag(Vtilde),- real(Vtilde)));  % 2M * 2M
maxeigVbar = max(eig(Vbar));
%thet = ones(10,1);
thetbar = transpose([real(transpose(thet)),imag(transpose(thet))]);   %   2M  * 1
vbar = (Vbar + transpose(Vbar) - maxeigVbar * eye(2*M)) * thetbar;    %   2M  * 1

f = utilde + U * vbar;



% 单位阵记得用eye而不是ones啦
%thet是M*1的列向量
thet_next = - exp(1j*phase(f));

end

Supongo que te gusta

Origin blog.csdn.net/qq_45542321/article/details/130647624
Recomendado
Clasificación