Directorio de artículos
prefacio
El propósito de este artículo es organizar pensamientos.
La función objetivo es aproximadamente de la forma
f O bj ( Θ ) = Tr { ∑ i = 1 2 ∑ j = 1 2 Θ T i XT j H Θ HR j HYR i + ∑ i = 1 2 ( Θ T i XT 1 H Θ HSH Θ HR 2 HYR i + Θ S Θ T 1 XT i H Θ HR i HYR 2 ) + Θ S Θ T 1 XT 1 H Θ HSH Θ HR 2 HYR 2 } − 2 l ( Tr ( ∑ i = 1 2 GR i Θ T i W + GR 2 Θ S Θ T 1 W ) ), \begin{aligned} & f_{\mathrm{Obj}}(\ballsymbol{\theta}) \\ = & \operatorname { T r } \left\{ \ suma_{i=1}^{2} \sum_{j=1}^{2}\ballsymbol{\theta}\mathbf{T}_{i}\mathbf{X}\mathbf{T}_{j} ^{\mathrm{H}} \ball símbolo{\Theta}^{\mathrm{H}} \mathbf{R}_{j}^{\mathrm{H}} \mathbf{Y} \mathbf{R} _ {i}\correcto. \\ & +\sum_{i=1}^{2}\left(\ballsymbol{\Theta} \mathbf{T}_{i} \mathbf{X} \mathbf{T}_{1}^{\ mathrm{H}} \ball symbol{\Theta}^{\mathrm{H}} \mathbf{S}^{\mathrm{H}} \ballsymbol{\Theta}^{\mathrm{H}} \mathbf{ R }_{2}^{\mathrm{H}}\mathbf{Y}\mathbf{R}_{i}\right.\\&\left. + \ballsymbol{\Theta} \mathbf{S} \ballsymbol{\Theta} \mathbf{T}_{1} \mathbf{X} \mathbf{T}_{i}^{\mathrm{H}}\ símbolo de bola {\Theta}^{\mathrm{H}}\mathbf{R}_{i}^{\mathrm{H}}\mathbf{Y}\mathbf{R}_{2}\right) \\ & izquierda. + \ballsymbol {\Theta S} \ballsymbol{\Theta} \mathbf{T}_{1} \mathbf{X} \mathbf{T}_{1}^{\mathrm{H}} \ballsymbol{\Theta }^{\mathrm{H}} \mathbf{S}^{\mathrm{H}} \ballsymbol{\Theta}^{\mathrm{H}} \mathbf{R}_{2}^{\mathrm{ H}} \mathbf{Y} \mathbf{R}_{2} \right\} \\ & -2 \Re\left(\operatorname{ T r }\left(\sum_{i=1}^{2 } \mathbf{G} \mathbf{R}_{i} \ballsymbol{\theta} \mathbf{T}_{i} \mathbf{W}+\mathbf{G} \mathbf{R}_{2} \ballsymbol{\Theta}\mathbf{S}\ballsymbol{\Theta}\mathbf{T}_{1}\mathbf{W}\right)\right), \end{aligned}=Fobjeto( yo )tr{ yo = 1∑2j = 1∑2ΘT _yoxt _jhelRRHH _jhYR _yo+yo = 1∑2( ΘT _yoxt _1helhs _H ΘRRHH _2hYR _yo+ Θ S Θ T1xt _ihelRRHH _ihYR _2)+ Θ S Θ T1xt _1helhs _H ΘRRHH _2hYR _2}−2ℜ( tr(yo = 1∑2GR _yoΘT _yoW.+GR _2Θ S Θ T1W ) ),
Definición Tr ( XYZW ) = vec ( XH ) H ( WT ⊗ Y ) vec ( Z ) \operatorname{Tr}(\mathbf{XYZW})=\operatorname{vec}(\mathbf{X}^\mathrm { H})^\mathr{H}(\mathbf{W}^\mathr{T}\otimes\mathbf{Y})\text{vec}(\mathbf{Z})Tr ( XYZW )=cosa ( Xh )alto (anchot⊗Y ) vec ( Z ) yTr ( Θ P ) = θ H p ∗ \text{Tr}(\ball symbol{\Theta}\mathbf{P}) = \ball symbol{\theta}^{\mathrm{H }} \mathbf{p}^\astTr ( Θ P )=iHP _∗
Deformado para conseguir
f Obj ( Θ ) = vec ( Θ ) HA vec ( Θ ) + vec ( Θ ) HB vec ( Θ S Θ ) + vec ( Θ S Θ ) HBH vec ( Θ ) + vec ( Θ S Θ ) HC vec ( Θ S Θ ) − 2 ℜ ( θ H p ∗ + vec ( Θ H ) HD vec ( Θ ) ),\begin{array}{l} f_{\text {Obj }}(\boldsymbol{\Theta}) \\ =\operatorname{vec}\left(\boldsymbol{\Theta}\right)^{\mathrm{H }} \boldsymbol{A} \operatorname{vec}\left(\boldsymbol{\Theta}\right) +\operatorname{vec}\left(\boldsymbol{\Theta}\right)^{\mathrm{H}} \mathbf{B} \operatorname{vec}\left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)\\ +\operatorname{vec}\left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)^{\mathrm{H}} \mathbf{B}^{\mathrm{H}} \operatorname{vec}\left(\boldsymbol{\Theta}\ derecha) +\operatorname{vec}\left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)^{\mathrm{H}} \mathbf{C} \operatorname{ve c} \left(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{\Theta}\right)\\ -2 \Re\left(\boldsymbol{\theta}^{\mathrm{H}} \mathbf{p }^{\ast}+\operatorname{vec}\left(\boldsymbol{\Theta}^{\mathrm{H}}\right)^{\mathrm{H}}\mathbf{D} \operatorname{vec}\left(\boldsymbol{\Theta}\right)\right), \end{array}Fobjeto ( yo )=vec( yo )hAvec( yo )+vec( yo )hBvec( Θ S Θ )+vec( Θ S Θ )hBhvec( yo )+vec( Θ S Θ )hCvec( Θ S Θ )− 2 ℜ( yoHP _∗+vec( _h )hDvec( yo ) ),
AA_ _A ,BBB ,CCC ,DDD
A = ∑ i = 1 2 ∑ j = 1 2 ( ( T i XT j H ) T ⊗ R j HYR i ) B = ∑ i = 1 2 ( T 1 XT i H ) T ⊗ R i HYR 2 C = ( T 1 XT 1 H ) T ⊗ R 2 HYR 2 , D = ( T 1 WGR 2 ) T ⊗ S , P = ( ∑ i = 1 2 T i WGR i ) \begin{align} &\mathbf{A}=\sum\limits_{i=1}^2\sum\limits_{j=1}^2((\mathbf{T}_i\mathbf{X}\mathbf{ T}_j^{\mathrm{H}})^{\mathrm{T}}\otimes \mathbf{R}_{j}^{\mathrm{H}}\mathbf{Y}\mathbf{R}_ {i})\\ &\mathbf{B}=\sum\limits_{i=1}^2(\mathbf{T}_1\mathbf{X}\mathbf{T}_i^\mathrm{H})^ \mathrm{T} \otimes \mathbf{R}_{i}^\mathbf{H}\mathbf{Y}\mathbf{R}_{2}\\ &\mathbf{C}=(\mathbf{T }_1\mathbf{X}\mathbf{T}_1^\mathbf{H})^\mathrm{T} \otimes \mathbf{R}_{2}^{\mathbf{Y}{\ mathbf{R} }_{2}, \\ &\mathbf{D}= (\mathbf{T}_1\mathbf{W}\mathbf{G}\mathbf{R}_{2})^{\mathrm {T}} \otimes\mathbf{S}, \mathbf{P}=(\sum\limits_{i=1}^{2}\mathbf{T}_i\mathbf{W}\mathbf{G}\mathbf{R}_{i}). \end{alinear}A=yo = 1∑2j = 1∑2(( tyoxt _jh)t⊗RjhYR _yo)B=yo = 1∑2( t1xt _ih)t⊗RihYR _2C=( t1xt _1h)t⊗R2hYR _2,D=( t1Grupo de Trabajo R2)t⊗S ,PAG=(yo = 1∑2tyoGrupo de Trabajo Ryo) .
Gracias a la escasa estructura de vec ( Θ ) \operatorname{vec}(\boldsymbol{\Theta})vec ( Θ ) , la
función objetivo \eqref{yuan11} se puede simplificar aún más. Específicamente, seaA 0 ∈ CL × L \mathbf{A}_0 \in \mathbb{C}^{L \times L}A0∈CL × L yD 0 ∈ CL × L \mathbf{D}_0 \in \mathbb{C}^{L \times L}D0∈CL × L estará formado por todos los elementos en
las intersecciones de[ ( m − 1 ) L + m ] [(m-1)L + m][( m−1 ) yo+m ] aésima fila y la
[ ( n − 1 ) L + n ] [(n-1)L+n][( n−1 ) yo+n ] ésima columna deA \mathbf{A}A yD \mathbf{D}D param , n = 1 , ⋯ , L m,n=1,\cdots,Lmetro ,norte=1 ,⋯,L ,
respectivamente. B 0 \mathbf{B}_0B0se compone de todos los elementos de las filas
[ ( q − 1 ) L + q ] [(q-1)L+q][( q−1 ) yo+q ] ,$q=1, \cdots,L $,deB \mathbf{B}B yC 0 = C \mathbf{C}_0=\mathbf{C}C0=C. _ Definimos
v ≜ vec ( Θ S Θ ) = ( Θ T ⊗ Θ ) vec ( S ) \mathbf{v} \triangleq \operatorname{vec}(\boldsymbol{\Theta} \mathbf{S} \boldsymbol{ \Theta})=\left(\boldsymbol{\Theta}^{\mathrm{T}} \otimes \boldsymbol{\Theta}\right) \operatorname{vec}(\mathbf{S})v≜vec ( Θ S Θ )=( _t⊗yo )vec ( S ) . Entonces el subproblema en
términos del patrón de reflexión común del IRS se expresa como
Es decir, se puede expresar como
A 0 = ∑ i = 1 2 ∑ j = 1 2 ( ( T i XT j H ) T ⊙ R j HYR i ) D 0 = ( T 1 WGR 2 ) T ⊙ S \begin{align} &\mathbf{A}_0=\sum\limits_{i=1}^2\sum\limits_{j=1}^2((\mathbf{T}_i\mathbf{X}\mathbf {T}_j^{\mathrm{H}})^{\mathrm{T}}\odot \mathbf{R}_{j}^{\mathrm{H}}\mathbf{Y}\mathbf{R} _{i})\\ &\mathbf{D}_0= (\mathbf{T}_1\mathbf{W}\mathbf{G}\mathbf{R}_{2})^{\mathrm{T}} \odot \mathbf{S}. \end{alinear}A0=yo = 1∑2j = 1∑2(( tyoxt _jh)t⊙RjhYR _yo)D0=( t1Grupo de Trabajo R2)t⊙S. _
index_B0 = [];
for i = 1:M
index_B0 = [index_B0,(i - 1)*M + i];
end
B0 = B(index_B0,:);
%M * M^2 % [(q−1)M + q], q=1, . . . ,M的行
B 0 \mathbf{B}_0B0se puede obtener mediante dicho código
Entonces hay tal pregunta.
min θ θ H A 0 θ + θ H B 0 v + v H B 0 H θ + v H C 0 v − 2 ℜ ( θ H p ∗ + θ H D 0 ∗ θ ∗ ) s.t. v = ( Θ T ⊗ Θ ) vec ( S ) , Θ = diag { θ 1 , ⋯ , θ M } , ∣ θ i ∣ = 1 , i ∈ { 1 , ⋯ , L } . \begin{aligned} \min _{\boldsymbol{\theta}} & \boldsymbol{\theta}^{\mathrm{H}} \mathbf{A}_0 \boldsymbol{\theta}+\boldsymbol{\theta}^{\mathrm{H}} \mathbf{B}_0 \mathbf{v}+\mathbf{v}^{\mathrm{H}} \mathbf{B}_0^{\mathrm{H}} \boldsymbol{\theta}+\mathbf{v}^{\mathrm{H}} \mathbf{C}_0 \mathbf{v}-2 \Re\left(\boldsymbol{\theta}^{\mathrm{H}} \mathbf{p}^*+\boldsymbol{\theta}^{\mathrm{H}} \mathbf{D}_0^* \boldsymbol{\theta}^*\right) \\ \text { s.t. } & \mathbf{v}=\left(\boldsymbol{\Theta}^{\mathrm{T}} \otimes \boldsymbol{\Theta}\right) \operatorname{vec}(\mathbf{S}), \\ & \boldsymbol{\Theta}=\operatorname{diag}\left\{\theta_1, \cdots, \theta_M\right\}, \\ & \left|\theta_i\right|=1, \quad i \in\{1, \cdots, L\} . \end{aligned} imin calle iha _0i+iHB _0v+vHB _0hi+vHC _0v−2ℜ( yoHP _∗+iHD _0∗i∗ )v=( _t⊗yo )cosa ( S ) ,el=diagnóstico{
yo1,⋯,im},∣θ _yo∣=1 ,i∈{
1 ,⋯,L } .
Btilde = [];
for i = 1:M
Btilde = [Btilde,B0(:,(i-1)*M+1:i*M)*diag(S(:,i))];
end
%M * M^2
El problema \eqref{DoubleIRSP3} todavía es difícil de encontrar solución debido al
acoplamiento de θ \boldsymbol{\theta}θ yS \mathbf{S}S en el vectorv \mathbf{v}v . A continuación, intentamos
separarlos. DefinirB 0 ≜ [ B 0 , 1 , ⋯ , B 0 , L ] ∈ CL × L 2 \mathbf{B}_0 \triangleq[\mathbf{B}_{0,1},\cdots,\mathbf{B }_{0,L}]\in\mathbb{C}^{L\timesL^2}B0≜[ B0 , 1,⋯,B0 , L]∈CLargo × Largo2 ,
dondeB 0 , p ∈ CL × L 2 \mathbf{B}_{0,p} \in \mathbb{C}^{L \times L^2}B0 , pag∈CLargo × Largo2 es la matriz de bloques que consta de
[ ( p − 1 ) L + 1 ] [(p-1)L+1][( pag.−1 ) yo+1 ] ésimo al[ p L ] [pL][ p L ] ésima columna deB 0 \mathbf{B}_{0}B0para p = 1 , ⋯ , L p=1, \cdots,Lpag=1 ,⋯,l .
donde si \mathbf{s}_isyoes el iii- ésima columna deS \mathbf{S}S ,
B ~ = [ B 0 , 1 día ( s 1 ) , ... , B 0 , L día ( s L ) ] \assign{\mathbf{B}}=\left[\mathbf{B} _{ 0.1} \operatorname{diag}\left(\mathbf{s}_{1}\right), \ldots,\mathbf{B}_{0, L} \operatorname{diag}\left(\mathbf{ s}_{L}\derecha)\derecha]B~=[ B0 , 1diagnóstico( s1),…,B0 , Ldiagnóstico( sL) ] y
C ~ = [ C ~ 1 día ( s 1 ) , ... , CL ~ día ( s L ) ] \index{\mathbf{C}}=\left[\index{\mathbf{C }} _{1} \operatorname{diag}\left(\mathbf{s}_{1}\right), \ldots, \tilde{\mathbf{C}_{L}}\operatorname{diag}\left (\ mathbf{s}_{L}\right)\right]C~=[C~1diagnóstico( s1),…,CL~diagnóstico( sL) ]
con
C ~ l = [ diag ( s 1 H ) C 0 , 1 , l , ... , diag ( s LH ) C 0 , L , l ] T \tilde{\mathbf{C}}_ {l }=\left[\operatorname{diag}\left(\mathbf{s}_{1}^{\mathrm{H}}\right) \mathbf{C}_{0,1, l}, \ ldots, \operatorname{diag}\left(\mathbf{s}_{L}^{\mathrm{H}}\right) \mathbf{C}_{0, L, l}\right]^{\mathrm {T}}C~yo=[ diagnóstico( s1h)C0 , 1 , l,…,diagnóstico( slh)C0 , L , l]t _ Según
las definiciones anteriores, el problema \eqref{DoubleIRSP3} se convierte en
Ctilde = zeros(M^2,M^2);
%M = 100;
%C0 = ones(M^2,M^2);
%S = rand(M,M);
for i=1:M
for j=1:M
Ctilde((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M) = C0((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M)*diag(S(i,:)')*diag(S(:,j));
end
end
% Ctilde M^2 M^2
Empalme para obtener Wtilde
min θ θ ~ HW ~ θ ~ − 2 i ( θ H p ∗ + θ HD 0 ∗ θ ∗ ) conjunto ∣ θ i ∣ = 1 , i ∈ { 1 , ⋯ , L } , \begin{array}{l } \min _{\símbolo de bola{\theta}} \tilde{\ballsymbol{\theta}}^{\mathrm{H}} \tilde{\mathbf{W}} \tilde{\ballsymbol{\theta}} - 2 \Re\left(\ballsymbol{\theta}^{\mathrm{H}}\mathbf{p}^{*}+\ballsymbol{\theta}^{\mathrm{H}}\mathbf{D} _ {0}^{*} \ball símbolo{\theta}^{*}\right) \\ \text { st }\left|\theta_{i}\right|=1, \quad i \in\{ 1, \cdots, L\} \text {, } \\\end{matriz}mín.ii~hW.~i~−2ℜ( yoHP _∗+iHD _0∗i∗ ) calle ∣θ _yo∣=1 ,i∈{ 1 ,⋯,L } ,
donde, θ ~ = [ θ T , ( θ ⊗ θ ) T ] T \tilde{\boldsymbol{\theta}}=\left[\boldsymbol{\theta}^{\mathrm{T}}, \left( \ negritasymbol{\theta} \otimes \boldsymbol{\theta} \right)^\mathrm{T} \right]^{\mathrm{T}}i~=[ yoT ,( yo⊗yo )T ]T ,
W ~ = [ A 0 B ~ B ~ HC ~ ] \tilde{\mathbf{W}}=\left[\begin{array}{cc} \mathbf{A}_{0} & \tilde{\ mathbf{B}}\\\attribute{\mathbf{B}}^{\mathrm{H}} & \attribute{\mathbf{C}}\end{array}\right]W.~=[A0B~hB~C~]
Se puede encontrar fácilmente
que
W ~ \tilde{\mathbf{W}}W.~
es la matriz hermitiana. Luego, para obtener la
solución de forma cerrada, se puede
construir una función sustituta más manejable mediante la técnica MM. Suponiendo el óptimo
θ t \boldsymbol{\theta}_titen el ttt ésima iteración, una función sustituta deθ ~ HW ~ θ ~ wrt θ ~ \tilde{\boldsymbol{\theta}}^{\mathrm{H}} \tilde{\mathbf{W}} \tilde{\boldsymbol{ \theta}} \text { wrt } \tilde{\boldsymbol{\theta}}i~hW.~i~ wrt i~
se puede derivar como \cite{MMalgoritmo}
下一步用MM算法
θ ~ HW ~ θ ~ ≤ θ ~ H Λ θ ~ + 2 ℜ ( θ ~ H ( W ~ − Λ ) θ ~ t ) + θ ~ t H ( W ~ − Λ ) θ ~ t , \tilde{\boldsymbol{\theta}}^{\mathrm{H}} \tilde{\mathbf{W}} \tilde{\boldsymbol{\theta}} \leq \tilde{\boldsymbol{\theta}}^ {\mathrm{H}} \boldsymbol{\Lambda} \tilde{\boldsymbol{\theta}}+2 \Re\left(\tilde{\boldsymbol{\theta}}^{\mathrm{H}}(\ tilde{\mathbf{W}}-\boldsymbol{\Lambda}) \tilde{\boldsymbol{\theta}}_{t}\right)+\tilde{\boldsymbol{\theta}}_{t}^{ \mathrm{H}}(\tilde{\mathbf{W}}-\boldsymbol{\Lambda}) \tilde{\boldsymbol{\theta}}_{t},i~hW.~i~≤i~L_ _i~+2ℜ(i~H (W.~−l )i~t)+i~th(W.~−l )i~t,
Luego se puede simplificar aún más:
donde Λ = λ max ( W ~ ) IL 2 + L \boldsymbol{\Lambda}=\lambda_{\max }(\tilde{\mathbf{W}}) \mathbf{I} _ {L^{2}+L}l=yom a x(W.~ )yol2 +L. Para evitar la alta complejidad inducida por la descomposición de valores propios de
W ~ \tilde{\mathbf{W}}W.~
, es decir,
O ( L 2 + L ) 3 \mathcal{O}\left(L^{2}+L\right)^{3}oh( l2+l )3 , elegimosΛ = Tr ( W ~ ) IL 2 + L \boldsymbol{\Lambda}=\operatorname{Tr}(\tilde{\mathbf{W}}) \mathbf{I}_{L^{2 }+L}l=tr (W.~ )yol2 +L
como otro parámetro auxiliar eficiente. Además,
al emplear la propiedad del módulo unitario de los
coeficientes de reflexión del IRS, θ ~ H Λ θ ~ \tilde{\boldsymbol{\theta}}^{H} \boldsymbol{\Lambda} \tilde{\boldsymbol{\theta }}i~L_ _i~ se puede transformar comoTr ( W ~ ) ( L + L 2 ) \operatorname{Tr}(\tilde{\mathbf{W}})\left(L+L^{2}\right)tr (W.~ )( l+l2 ),
que es un término constante irrelevante para la variable de optimización.
θ ~ t H ( W ~ − Λ ) θ ~ t \tilde{\boldsymbol{\theta}}_{t}^{\mathrm{H}}(\tilde{\mathbf{W}}-\boldsymbol{\ Lambda}) \tilde{\boldsymbol{\theta}}_{t}i~th(W.~−l )i~ttambién es una constante porque
θ ~ t \tilde{\boldsymbol{\theta}}_{t}i~tya se
sabe en el ttt aésima iteración. Por lo tanto, la función objetivo
en el problema \eqref{DoubleIRSP4} se simplifica como
2 ℜ ( θ ~ H ( W ~ − Λ ) θ ~ t ) − 2 ℜ ( θ H p ∗ − θ HD 0 ∗ θ ∗ ) = 2 ℜ ( θ H u ~ t + ( θ H ⊗ θ H ) V t − θ HD 0 ∗ θ ∗ ) = 2 ℜ ( θ H u ~ t + θ HV ~ t θ ∗ ),\begin{alineado} & 2 \Re\left(\tilde{\ballsymbol{\theta}}^{\mathrm{H}}(\tilde{\mathbf{W}}-\ballsymbol{\Lambda}) \tilde {\ballsymbol{\theta}}_{t}\right)-2 \Re\left(\ballsymbol{\theta}^{\mathrm{H}} \mathbf{p}^{*}-\ballsymbol{\ theta}^{\mathrm{H}}\mathbf{D}_{0}^{*}\ballsymbol{\theta}^{*}\right) \\ = & 2 \Re\left(\ballsymbol{\ theta}^{\mathrm{H}} \assign{\mathbf{u}}_{t}+\left(\ballsymbol{\theta}^{\mathrm{H}} \otimes\ballsymbol{\theta}^ {\mathrm{H}}\right) \mathbf{V}_{t}-\ballsymbol{\theta}^{\mathrm{H}}\mathbf{D}_{0}^{*}\ballsymbol{ \theta}^{*}\right) \\ = & 2 \Re\left(\ballsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{u}}_{t}+\ballsymbol {\theta}^{\mathrm{H}} \assign{\mathbf{V}}_{t}\símbolo de bola{\theta}^{*}\right), \end{aligned}==2ℜ(i~H (W.~−l )i~t)−2ℜ( yoHP _∗−iHD _0∗i∗ )2ℜ( yohtu~t+( yoh⊗ih )Vt−iHD _0∗i∗ )2ℜ( yohtu~t+ihV~ti∗ ),
donde u ~ t = ( A 0 − λ max ( W ~ ) IL ) θ ~ t + B ~ ( θ ~ t ⊗ θ ~ t ) − p ∗ \tilde{\mathbf{u}}_{t}= \left(\mathbf{A}_{0}-\lambda_{\max }(\tilde{\mathbf{W}}) \mathbf{I}_{L}\right) \tilde{\boldsymbol{\theta }}_{t}+\tilde{\mathbf{B}}\left(\tilde{\boldsymbol{\theta}}_{t} \otimes \tilde{\boldsymbol{\theta}}_{t}\ derecha)-\mathbf{p}^{*}tu~t=( Un0−yom a x(W.~ )yoL)i~t+B~(i~t⊗i~t)−pag∗ ,
V t = B ~ H θ ~ t + ( C ~ − λ max ( W ~ ) IL 2 ) ( θ ~ t ⊗ θ ~ t ) \mathbf{V}_t = \tilde{\mathbf{B} }^{\mathrm{H}} \tilde{\boldsymbol{\theta}}_{t}+\left(\tilde{\mathbf{C}}-\lambda_{\max }(\tilde{\mathbf{ W}}) \mathbf{I}_{L^{2}}\right)\left(\tilde{\boldsymbol{\theta}}_{t} \otimes \tilde{\boldsymbol{\theta}}_ {t}\derecha)Vt=B~hi~t+(C~−yom a x(W.~ )yol2)(i~t⊗i~t) ,
V ~ t = V ^ t − D 0 ∗ \tilde{\mathbf{V}}_{t}=\hat{\mathbf{V}}_{t}-\mathbf{D}_{0} ^{*}V~t=V^t−D0∗.
V t ^ \hat{\mathbf{V}_t}Vt^es la versión remodelada de V t \mathbf{V}_tVt, es decir, V t = vec ( V ^ t ) \mathbf{V}_{t}=\operatorname{vec}\left(\hat{\mathbf{V}}_{t}\right)Vt=vec(V^t) , Entonces
el problema \eqref{DoubleIRSP4} se transforma de manera equivalente en
min θ 2 ℜ ( θ H u ~ t + θ HV ~ t θ ∗ ) st ∣ θ i ∣ = 1 , i ∈ { 1 , ⋯ , L } . \begin{aligned} & \min _{\boldsymbol{\theta}} 2 \Re\left(\boldsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{u}}_{t} +\boldsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{V}}_{t} \boldsymbol{\theta}^{*}\right) \\ & \text { st }\ izquierda|\theta_{i}\right|=1, \quad i \in\{1, \cdots, L\} . \end{alineado}imin2ℜ( yohtu~t+ihV~ti∗ ) calle ∣θ _yo∣=1 ,i∈{ 1 ,⋯,L } .
Usando el algoritmo MM, hemos transformado el problema original de cuarto orden \eqref{DoubleIRSP4} en un problema de segundo orden \eqref{DoubleIRSP5}. Tal
procedimiento disminuye en gran medida la dificultad y complejidad para
resolver el problema. Sin embargo, el problema \eqref{DoubleIRSP5} todavía no es
convexo. Para obtener la solución, consideramos utilizar
nuevamente el algoritmo MM para encontrar una función sustituta más manejable.
Para ser específico, defina θ ‾ ≜ [ ℜ { θ T } , ℑ { θ T } ] T \overline{\boldsymbol{\theta}} \triangleq\left[\Re\left\{\boldsymbol{\theta}^ {T}\right\} , \Estoy\left\{\boldsymbol{\theta}^{T}\right\}\right]^{T}i≜[ ℜ{
yot },ℑ{
yoT }]T yV ˉ t ≜ [ ℜ { V ~ t } ℑ { V ~ t } ℑ { V ~ t } − ℜ { V ~ t } ] \bar{\mathbf{V}}_t \triangleq \left[\begin {array}{cc} \Re\left\{\tilde{\mathbf{V}}_{t}\right\} & \Estoy\left\{\tilde{\mathbf{V}}_{t}\ right\} \\ \Estoy\left\{\tilde{\mathbf{V}}_{t}\right\} & -\Re\left\{\tilde{\mathbf{V}}_{t}\ derecha\} \end{array}\derecha]Vˉt≜
ℜ{
V~t}ℑ{
V~t}ℑ{
V~t}− ℜ{
V~t}
. . . . La función real No { θ HV ~ t θ ∗ } \Re\left\{\ballsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{V}}_{t} \ballsymbol{\theta }^{*}\derecha\}ℜ{
yohV~ti∗ }se puede
expresar comoθ ‾ TV θ ‾ \overline{\ball symbol{\theta}}^{\mathrm{T}} \overline{\mathbf{V}\ball symbol{\theta}};itV θ. Luego, basándose en la expansión de Taylor de segundo orden, se obtiene una función sustituta convexa de θ ‾ TV θ ‾ \overline{\boldsymbol{\theta}}^{\mathrm{T}} \overline{\mathbf{V} \boldsymbol{ \theta}}itV θ(es decir, ℜ { θ HV ~ t θ ∗ } \Re\left\{\boldsymbol{\theta}^{\mathrm{H}} \tilde{\mathbf{V}}_{t} \boldsymbol{\theta }^{*}\derecha\}ℜ{
yohV~ti∗ }) se deriva como \cite{diedaituidao1}:
θ ‾ TV θ ‾ ≤ θ ‾ t TV ‾ t θ ‾ t + θ ‾ t T ( V ‾ t + V ‾ t T ) ( θ ‾ − θ ‾ t ) + λ 2 ( θ ‾ − θ ‾ t ) T ( θ ‾ − θ ‾ t ) = ℜ { θ HU v ‾ t } + c ,\begin{aligned} \overline{\boldsymbol{\theta}}^{\mathrm{T}} \overline{\mathbf{V} \boldsymbol{\theta}} & \leq \overline{\boldsymbol{\theta} }_{t}^{\mathrm{T}} \overline{\mathbf{V}}_{t} \overline{\boldsymbol{\theta}}_{t}+\overline{\boldsymbol{\theta} }_{t}^{\mathrm{T}}\left(\overline{\mathbf{V}}_{t}+\overline{\mathbf{V}}_{t}^{\mathrm{T} }\right)\left(\overline{\boldsymbol{\theta}}-\overline{\boldsymbol{\theta}}_{t}\right)\\ & +\frac{\lambda}{2}\left (\overline{\boldsymbol{\theta}}-\overline{\boldsymbol{\theta}}_{t}\right)^{\mathrm{T}}\left(\overline{\boldsymbol{\theta}} -\overline{\boldsymbol{\theta}}_{t}\right) \\ & =\Re\left\{\boldsymbol{\theta}^{\mathrm{H}} \mathbf{U} \overline{ \mathbf{v}}_{t}\right\}+c, \end{alineado}itV θ≤ittVtit+itt(Vt+Vtt)(i−it)+2yo(i−it)t(i−it)=ℜ{ yoHU _vt}+c ,
donde θ ‾ t ≜ [ ℜ { θ t T } , ℑ { θ t T } ] T \overline{\boldsymbol{\theta}}_{t} \triangleq\left[\Re\left\{\boldsymbol{\ theta}_{t}^{\mathrm{T}}\right\} , \Estoy\left\{\boldsymbol{\theta}_{t}^{\mathrm{T}}\right\}\right] ^{\mathrm{T}}it≜[ ℜ{
yott},ℑ{
yott} ]T ,
λ ≜ λ max ( V ‾ t + V ‾ t T ) \lambda \triangle \lambda_{\max }\left(\overline{\mathbf{V}}_{t}+\overline{\mathbf{ V}}_{t}^{\mathrm{T}}\derecha)yo≜yom a x(Vt+Vtt)
yv ‾ t ≜ ( V ‾ t + V ‾ t T − λ I 2 L ) θ ‾ t \overline{\mathbf{v}}_{t} \triangle\left(\overline{\mathbf{V} }_{t}+\overline{\mathbf{V}}_{t}^{\mathrm{T}}-\lambda \mathbf{I}_{2 L}\right) \overline{\símbolo de bola{ \theta}}_{t}vt≜(Vt+Vtt−yo_ _2 litros)it,
ccc es una constante irrelevante paraθ \boldsymbol{\theta}θ . U ≜ [ IL , ȷ IL ] \mathbf{U} \triangleq\left[\mathbf{I}_{L} , \jmath \mathbf{I}_{L}\right]Ud.≜[ yoL, yoL] se define para convertir la función de valor real nuevamente a la función de valor complejo original. Entonces el problema \ref{DoubleIRSP5}
es equivalente a
min θ 2 ℜ ( θ H ft ) , st ∣ θ i ∣ = 1 , ∀ i , \begin{ecuación} \min _{\boldsymbol{\theta}} 2 \Re\left(\boldsymbol{\theta} ^{\mathrm{H}} \mathbf{f}_{t}\right), \quad \text { st }\left|\theta_{i}\right|=1, \forall i, \end{ecuación }imin2ℜ( yoh ft), calle ∣θ _yo∣=1 ,∀ yo ,
donde ft = u ~ t + U v ‾ t \mathbf{f}_{t}=\tilde{\mathbf{u}}_{t}+\mathbf{U} \overline{\mathbf{v}}_ {t}Ft=tu~t+Ud.vt. Los
coeficientes de reflexión óptimos del IRS común se obtienen como
θ opt = − ej arg (pies). \begin{ecuación}\ballsymbol{\theta}^{\mathrm{opt}}=-e^{j \arg \left(\mathbf{f}_{t}\right)}. \end{ecuación}ioptar=− mija r g ( ft) .
En resumen, para el subproblema de optimización del patrón de reflexión común de doble IRS, esta sección extiende el subproblema cuártico original a una dimensión de matriz superior y utiliza el algoritmo MM dos veces para encontrar la función sustituta. Derivamos la expresión en forma cerrada de la solución subóptima.
todos los codigos
function thet_next = optimingThetaDoubleIRS(Theta,M,W,G,ks,kd,T1,T2,R1,R2,S)
thet = diag(Theta);
%Hadamard积就是同维度矩阵逐一元素相乘
A0 = transpose(T1 * W * W' * T1') .* (R1' * G'* G * R1) + transpose(T1 * W * W' * T2') .* (R2' * G'* G * R1) + ...
transpose(T2 * W * W' * T1') .* (R1' * G'* G * R2) + transpose(T2 * W * W' * T2') .* (R2' * G'* G * R2)+ ...
ks * transpose(T1 * diag(diag(W * W')) * T1') .* (R1' * G'* G * R1) + ks * transpose(T1 * diag(diag(W * W')) * T2') .* (R2' * G'* G * R1) + ...
ks * transpose(T2 * diag(diag(W * W')) * T1') .* (R1' * G'* G * R2) + ks * transpose(T2 * diag(diag(W * W')) * T2') .* (R2' * G'* G * R2)+ ...
kd * transpose(T1 * W * W' * T1') .* (R1' * diag(diag(G'* G)) * R1) + kd * transpose(T1 * W * W' * T2') .* (R2' * diag(diag( G'* G)) * R1) + ...
kd * transpose(T2 * W * W' * T1') .* (R1' * diag(diag(G'* G)) * R2) + kd * transpose(T2 * W * W' * T2') .* (R2' * diag(diag(G'* G)) * R2)+ ...
ks * kd * transpose(T1 * diag(diag(W * W')) * T1') .* (R1' * diag(diag(G'* G)) * R1) + ks * kd * transpose(T1 * diag(diag(W * W')) * T2') .* (R2' * diag(diag( G'* G)) * R1) + ...
ks * kd * transpose(T2 * diag(diag(W * W')) * T1') .* (R1' * diag(diag(G'* G)) * R2) + ks * kd * transpose(T2 * diag(diag(W * W')) * T2') .* (R2' * diag(diag(G'* G)) * R2) ;
% M *M
D0 = transpose(T1 * W * G * R2) .* S ;
B = kron( transpose(T1 * W * W' * T1') , (R1' * G'* G * R2) ) + kron( transpose(T1 * W * W' * T2') , (R2' * G'* G * R2) ) + ...
ks * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R1' * G'* G * R2) ) + ks * kron( transpose(T1 * diag(diag(W * W')) * T2') , (R2' * G'* G * R2) ) + ...
kd * kron( transpose(T1 * W * W' * T1') , (R1' * diag(diag(G'* G)) * R2) ) + kd * kron( transpose(T1 * W * W' * T2') , (R2' * diag(diag(G'* G)) * R2) ) + ...
ks * kd * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R1' * diag(diag(G'* G)) * R2) ) + ks * kd * kron( transpose(T1 * diag(diag(W * W')) * T2') , (R2' * diag(diag(G'* G)) * R2) ) ;
% M^2 * M^2
C = kron( transpose(T1 * W * W' * T1') , (R2' * G'* G * R2) ) + ...
ks * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R2' * G'* G * R2) ) + ...
kd * kron( transpose(T1 * W * W' * T1') , (R2' * diag(diag(G'* G)) * R2) ) + ...
ks * kd * kron( transpose(T1 * diag(diag(W * W')) * T1') , (R2' * diag(diag(G'* G)) * R2) ) ;
% M^2 * M^2
C0 = C;
%D = kron( transpose(T1 * W * G * R2 ), S );
P = T1 * W *G * R1 + T2 * W *G *R2; % M *M
p = diag(P);
index_B0 = [];
for i = 1:M
index_B0 = [index_B0,(i - 1)*M + i];
end
B0 = B(index_B0,:);
%M * M^2 % [(q−1)M + q], q=1, . . . ,M的行
Btilde = [];
for i = 1:M
Btilde = [Btilde,B0(:,(i-1)*M+1:i*M)*diag(S(:,i))];
end
%M * M^2
Ctilde = zeros(M^2,M^2);
%M = 100;
%C0 = ones(M^2,M^2);
%S = rand(M,M);
for i=1:M
for j=1:M
Ctilde((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M) = C0((i-1)*M+1:(i)*M,(j-1)*M+1:(j)*M)*diag(S(i,:)')*diag(S(:,j));
end
end
% Ctilde M^2 M^2
Wtilde = cat(1, cat(2,A0,Btilde), cat(2,Btilde',Ctilde));
%maxeigWtilde = max(eig(Wtilde));
maxeigWtilde = trace(Wtilde);
utilde = (A0 - maxeigWtilde.*eye(M))*thet + Btilde * kron(thet,thet) - conj(p); % M 1
U = [eye(M) , 1j * eye(M)];
V = Btilde' * thet + (Ctilde - maxeigWtilde * eye(M^2)) * kron(thet,thet); % M^2 * 1
Vhat = transpose(reshape(V,[M,M])); % M * M
Vtilde = Vhat - conj( D0 ); % M * M
Vbar = cat(1, cat(2,real(Vtilde),imag(Vtilde)), cat(2,imag(Vtilde),- real(Vtilde))); % 2M * 2M
maxeigVbar = max(eig(Vbar));
%thet = ones(10,1);
thetbar = transpose([real(transpose(thet)),imag(transpose(thet))]); % 2M * 1
vbar = (Vbar + transpose(Vbar) - maxeigVbar * eye(2*M)) * thetbar; % 2M * 1
f = utilde + U * vbar;
% 单位阵记得用eye而不是ones啦
%thet是M*1的列向量
thet_next = - exp(1j*phase(f));
end