グレイシステム理論とその応用

灰色系统理论及其应用

客観的な世界における実際的な問題の多くは、その内部構造、パラメータ、特性が人々に完全には理解されていません. ホワイトボックス問題を研究するのと同じように内部メカニズムを明確に研究することは不可能です. 彼らは特定の基準に基づいてモデルを構築することしかできません.思考ロジックと推論。情報の一部が既知であり、情報の一部が不明であるこの種のシステムを、「システム」と呼びます灰色系统この章で紹介する手法は、グレーシステムの本質的なグレーから出発し、大量の情報が欠落したり無秩序になったりした場合に、実際的な問題をどのように分析して解決するかを研究します

1. 灰色系统概论

客観的世界は絶えず発展し、変化し続けますが、しばしば物事や要素間の相互制約や相互関係を通じて全体を形成し、それをシステムと呼びます。人々は物事のさまざまな内包に応じて、工学技術、社会システム、経済システムなどを確立してきました。人々は、システムの内部動作メカニズムを解明するために、さまざまなシステムによって明らかにされる特性のいくつかを分析しようとします。情報の完全性とモデルの構築の観点から見ると、エンジニアリング技術などのシステムは比較的十分な情報量を持ち、その発展と変化のルールが明白で、定量的な記述がより便利であり、構造とパラメータがより豊富です。特定のホワイト系; 社会システム、農業システム、生態系などの他のタイプのシステムでは、人々は客観的な物理的プロトタイプを確立できず、その動作原理が明確でなく、内部要因を特定することが困難であるか、内部要因間の関係が隠蔽されています。この種のシステムは人間が正確に理解することが難しいため、その動作特性を定量的に記述することが難しく、モデルの構築が困難になります内部特性が部分的にわかっている系をといいます。グレー系内部特性がすべて不明なシステムを次のように呼びます。ブラック系

ホワイト システムとグレー システムを区別する重要な兆候は、システム内のさまざまな要素間に明確な関係があるかどうかです運動学では、物体の運動の速度や加速度は、物体が受ける外力と関係があり、その関係はニュートンの法則によって定量的に明らかにできるため、物体の運動は白色系となります。

もちろん、白、灰色、黒は、ある程度の理解度を必要とするため、相対的なものです。ある日、男性が友人の家に客として行ったところ、友人の犬が家の隅に隠れ、車が来ると震えているのに気づきました。彼はこれに当惑した。しかし、彼の友人にとっては、犬が少し前に車に轢かれたことがあったことを知っていたので、その犬の行動は理解できるものでした。どうやら、同じ「犬の怖い行動」に関して、ゲストたちはある問題に直面しているようです。ブラックボックス、マスターが直面している間、グレーのボックス

実際問題として、世界には多くの灰色のシステムがあり、絶対的な白または黒のシステムはほとんどありません。人間の認知の進歩と現実世界を理解するための要件のアップグレードに伴い、社会的および経済的問題に関する人々の研究は定性的分析では満足できないことがよくあります。現代の科学技術が急速に発展しているにもかかわらず、自然界に対する人々の理解は依然として表面的なものです。食用作物の生産は人々の食糧に関わる現実的な大きな問題であると同時に、抽象的なグレーシステムでもある。肥料、種子、農薬、天候、土壌、労働力、水の保全、農業、政策はすべて生産に影響を与える要因ですが、生産に影響を与える決定的な要因を判断することは困難であり、それらの定量的な関係を判断することはさらに困難です。これらの要因と穀物の生産高。人々は、特定の仮定 (多くの場合、何らかの経験と常識) のもとで、何らかの論理的演繹に従ってのみモデルを取得できます。このモデルは、食用作物生産問題の理論的理解を「コピー」したものではなく、現実的な問題についての人々の理解を == 「反映」または「近似」 == としか見ることができません。

社会、経済、農業、生態系には一般に無視できない「ノイズ」(つまり、ランダムな乱れ)が存在します。既存の研究は「ノイズ」によって汚染されることがよくあります。ランダムな外乱によって侵食されるシステムの理論は、主に確率と統計に基づいています。統計法則や確率分布によって物の発展を予測し、物の処分を決定する。システム分析のための既存の定量的手法のほとんどは、回帰分析、分散分析、主成分分析などの数理統計手法であり、回帰分析が最も広く使用されている手法ですしかし、回帰分析には大量のサンプルが必要であり、定量的なルールは大量のデータからしか得られないため、しばらくの間データが得られなかったり不足したりする多くの現実的な問題の解決が困難になります。回帰分析ではサンプルの分布が良好であることも必要ですが、多くの実際の状況はこのようなものではありませんたとえば、私の国の人民共和国の設立以来、経済には何度か浮き沈みがあり、サンプルを比較的規則的に配布するという要件を満たすことが困難です。したがって、大量のデータから統計法則が得られるとは限らず、統計法則が得られたとしてもすべての状況を分析できるわけではありません。また、回帰分析では、静的であっても要因間の動的な相関関係を分析することはできず、精度も高くなく、異常現象が現れることも少なくありません。

グレイシステム理論要因間の発展傾向の類似性や差異に応じて要因間の相関度を測定し、物事の動的な相関関係の性質や程度を明らかにする新しい分析手法「相関度分析法」を提案する開発動向を足がかりとするため、過度なサンプル数の要求がなく、典型的な分布則も必要なく、計算量も少なく手計算でも可能なため、相関度の定量的結果と定性的分析の間に矛盾はありません。この手法は農業経済、水利保全、マクロ経済などに応用され、良好な成果をあげている。グレイシステム理論モデリングの主なタスクは、特定のグレイシステムの行動特性データに基づいて、少数のデータの明示的および暗黙的な情報を完全に開発して利用し、要因または要因自体の間の数学的関係を見つけることです。通常のアプローチは、離散モデルを使用し、時間の経過とともにセグメントごとに分析されるモデルを構築することですしかし、離散モデル私たちは客観的なシステム開発の短期的な分析しか行うことができず、これからは長期的な分析、計画、意思決定の要求に応えることができません連続システムの離散近似モデルは多くの工学応用に役立ちますが、一部の研究分野では、微分方程式モデルを使用することが望ましいことがよくあります。実際には、微分方程式システムは、特定したいシステム内の物理的または化学的プロセスの性質を記述します。

グレイ システム理論は、まず、客観的システムの新しい理解に基づいています。一部のシステムの情報は十分ではありませんが、システムとして特定の機能と秩序を持たなければなりませんが、その内部法則は完全には明らかにされていません。一部のランダムな量、ランダムな外乱成分、およびランダムなデータ列は、グレイ システムの観点からはとらえどころのないものとはみなされません。これに対し、グレイシステム理論では、乱数を一定の範囲内で変化するグレイ量とみなして、元のデータを適切に処理し、グレイ数を生成された数値に変換し、強い規則性を持った生成された数値を取得します。生成された数値関数から。たとえば、一部のシステムのデータは処理後に指数則を示しますが、これは、ほとんどのシステムが一般化されたエネルギー システムであり、指数則がエネルギー変化の法則であるためです。グレイシステム理論の定量的基礎は、確率と統計の限界を打ち破る生成された数値であるため、結果はもはや過去の大量のデータに基づいて得られた経験的な統計法則ではなく、現実的な生成法です。法。灰色のシステムを可能な限り明確かつ明確にするこのプロセスは、ホワイトニングと呼ばれます。

現在、グレイシステム理論は工学制御、経済管理、未来研究、生態系、複雑で変化しやすい農業システムに応用され、満足すべき成果を上げている。グレイシステム理論は、社会や経済などの抽象的なシステムを分析、モデル化し、予測し、意思決定し、制御する可能性があり、人々が客観的システムを理解し、客観的システムを変革するための新しい理論的ツールになる可能性があります。

2. 关联分析

世の中の客観的な事柄は多くの場合複雑であり、多くの要素が含まれています。多くの場合、システムの要因を分析する必要があります。どの要因がシステムにとって主要な要因で、どの要因が副次的で、どの要因を開発する必要があり、どの要因を抑制する必要があるか、どの要因が潜在的で、どの要因が影響しているのかを分析する必要があります。明らかです。一般的に言えば、これらは私たちにとって大きな関心事です。実際、システム分析の鍵であり出発点は、要因間の相関関係をどのように判断し、相関の程度をどのように定量化するかということです

主に採用されている因子分析の基本的な手法回帰分析等々。前節でも指摘したように、回帰分析の手法には、大量のデータが必要であり、計算量も多く、異常事態が発生する可能性があるなど、多くの欠点があります。上記の欠点を克服するために、このセクションでは相関分析の方法を使用してシステム分析を行います。

発展し変化するシステムとして、相関分析は実際には動的なプロセス開発状況の定量的な比較分析です。いわゆる開発状況の比較とは、システムの各時期における統計データの幾何学的関係を比較することを指す。
たとえば、1977 年から 1983 年までの特定の地域の総収入と豚の飼育とウサギの飼育からの収入については、表 1 を参照してください。
表1 収入データ
ここに画像の説明を挿入
表1をもとにグラフ1を作成します。
ここに画像の説明を挿入
図 1 収益データのグラフ

上図から、曲線 A と曲線 B の発展傾向は比較的近いことが容易にわかりますが、曲線 C とは大きく異なります。したがって、この領域の総収入への直接的な影響は次のとおりであると判断できます。ウサギ産業ではなく、養豚産業です。明らかに、幾何学的形状が近ければ近いほど、相関度は大きくなります。もちろん、もう少し複雑な問題の場合、直感的な分析は困難です。したがって、要因間の相関の度合いを測定する計算方法を提供する必要があります。

2.1 データ変換テクノロジー モデリング
の品質とシステム分析の正しい結果を保証するには、収集された元のデータに対してデータ変換と処理を実行して、データを無次元化して比較できるようにする必要があります。
定義 1 sequence がない場合ここに画像の説明を挿入、マッピングは
ここに画像の説明を挿入
シーケンス x からシーケンス y へのデータ変換と呼ばれます。
1)
ここに画像の説明を挿入
f が初期化変換と呼ばれる場合。
2)
ここに画像の説明を挿入
f が平均変換であると言われる場合。
3)
ここに画像の説明を挿入
f を呼び出すと、パーセント変換が行われます。

4) が
ここに画像の説明を挿入
呼び出された場合、f は多重変換です。
5)
ここに画像の説明を挿入
x0 が 0 より大きい値の場合、f は正規化変換と呼ばれます。
6)
ここに画像の説明を挿入
f が範囲最大化変換と呼ばれる場合。
7)
ここに画像の説明を挿入
f が区間値変換と呼ばれる場合。
2.2 相関分析の
定義 2 参照配列の選択
ここに画像の説明を挿入

ここで、k は時間を表します。比較系列が m 個あると仮定すると、時刻 k における比較系列 xi と参照系列 x0 の間の相関係数と
ここに画像の説明を挿入
呼ばれます。ここで、ρ∈[0,1]は分解能係数です。計量式では2段階の最小差と2段階の最大差となります。一般に、分解能係数ρが大きいほど分解能は大きくなり、ρが小さいほど分解能は小さくなります。式(1)で定義される相関係数は、ある瞬間における比較系列と参照系列との相関の度合いを表す指標であり、各瞬間における相関数が存在するため、情報が分散しすぎて把握することが容易ではない。このため、基準系列 x0 に対する系列 xi の相関度と呼ばれる定義 3 を与えます。(2) から、相関度は各瞬間の相関係数を平均値に集中させる、つまり分散しすぎた情報を集中させることが容易にわかります。相関度の概念を使用すると、さまざまな問題について要因分析を行うことができます。次の質問について考えてみましょう。例 1 ある女子砲丸投選手の追跡調査により、表 2 に示すように、1982 年から 1986 年までの彼女のベストパフォーマンスと 16 の特別な資質および身体的資質の時系列データが得られました。砲丸投げ選手 因子分析を行う。表2 各種実績データ式(1)と式(2)を使って相関度を計算する前に、表2の各系列を初期化する必要があります。一般に、実際の問題では系列が異なると次元が異なることが多く、相関係数を計算する場合は同じ次元が必要です。したがって、まずさまざまなデータを無次元化する必要があります。さらに、比較を容易にするために、すべてのシーケンスに共通の交差点がある必要があります。上記 2 つの問題を解決するために、与えられたシーケンスを変換します。定義 4 数値シーケンス x=(x(1),x(2),…,下(n)) が与えられると、それを元のシーケンス X の初期化シーケンスと呼びます。
ここに画像の説明を挿入


ここに画像の説明を挿入



ここに画像の説明を挿入




ここに画像の説明を挿入


ここに画像の説明を挿入

このようにして、表 2 の 17 個の数値を初期化できます。最初の 15 シリーズでは、時間の増加に伴う値の増加は運動のレベルが向上したことを意味し、最後の 2 シリーズでは、時間の増加に伴う値 (秒) の減少は運動の進歩レベルを意味することに注意してください。したがって、シーケンス 15x と 16x を初期化する際には、
ここに画像の説明を挿入
問題の要件を満たす次の公式を採用します。当然、砲丸投げの特別なスコアを参照シーケンスとして選択し、表 2 の各シーケンスの初期化シーケンスを ( 1) と (2) 各シーケンスの相関度は、次の表に示すように簡単に計算できます (ここでは ρ=5.0)。
ここに画像の説明を挿入

clc,clear
load x.txt %把原始数据存放在纯文本文件 x.txt 中
for i=1:15
x(i,:)=x(i,:)/x(i,1); %标准化数据
end
for i=16:17
x(i,:)=x(i,1)./x(i,:); %标准化数据
end
data=x;
n=size(data,1);
ck=data(1,:);m1=size(ck,1);
bj=data(2:n,:);m2=size(bj,1);
for i=1:m1
for j=1:m2
t(j,:)=bj(j,:)-ck(i,:);
end
jc1=min(min(abs(t')));jc2=max(max(abs(t')));
rho=0.5;
ksi=(jc1+rho*jc2)./(abs(t)+rho*jc2);
rt=sum(ksi')/size(ksi,2);
r(i,:)=rt;
end
r
[rs,rind]=sort(r,'descend') %对关联度进行排序

表 3 から、砲丸投げのパフォーマンスに影響を与える最初の 8 つの主な要因は、フルスクワット、3kg のスライド、ハイクリーン、4kg のインサイチュ、クリーンとジャーク、立ち幅跳び、30m の離陸、および 100m であることが簡単にわかります。したがって、トレーニングではこれら 8 つの指標を配置する実践を重点的に考慮する必要があります。これにより、トレーニングの失明を軽減し、トレーニング効果を向上させることができます。
なお、式(1)の |)()(| 0 kxkx i− では因子相関が正か負かを区別することができず、この問題を解決するには以下の方法が考えられます。
ここに画像の説明を挿入

3.优势分析

ここに画像の説明を挿入

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
表 4 のデータに従って、次の MATLAB プログラムを使用します。

clc,clear
load data.txt %把原始数据存放在纯文本文件 data.txt 中
n=size(data,1);
for i=1:n
data(i,:)=data(i,:)/data(i,1); %标准化数据
end
ck=data(6:n,:);m1=size(ck,1);
bj=data(1:5,:);m2=size(bj,1);
for i=1:m1
for j=1:m2
t(j,:)=bj(j,:)-ck(i,:);
end
jc1=min(min(abs(t')));jc2=max(max(abs(t')));
rho=0.5;
ksi=(jc1+rho*jc2)./(abs(t)+rho*jc2);
rt=sum(ksi')/size(ksi,2);
r(i,:)=rt;
end
r

親因子 (ここでは ρ=0.5) に対する各子因子の相関度を計算し、相関行列は次のようになります。
ここに画像の説明を挿入
ここに画像の説明を挿入

4.生成树

ここに画像の説明を挿入

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

5.灰色模型GM

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

6.灰色预测

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
a=[390.6,412,320,559.2,
380.8,542.4,553,310,561,300,632,540,406.2,313.8,576,587.6,318.5]'
;
t0=find(a<=320);
t1=cumsum(t0);n=length(t1);
B=[-0.5*(t1(1:end-1)+t1(2:end)),ones(n-1,1)];Y=t0(2:end);
r=B\Y
y=dsolve('Dy+a*y=b','y(0)=y0');
y=subs(y,{
    
    'a','b','y0'},{
    
    r(1),r(2),t1(1)});
yuce1=subs(y,'t',[0:n+1])
digits(6),y=vpa(y) %为提高预测精度,先计算预测值,再显示微分方程的解
yuce=diff(yuce1);
yuce=[t0(1),yuce]

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
x0=[71.1 72.4 72.4 72.1 71.4 72.0 71.6];
n=length(x0);
lamda=x0(1:n-1)./x0(2:n)
range=minmax(lamda)
x1=cumsum(x0)
for i=2:n
z(i)=0.5*(x1(i)+x1(i-1));
end
B=[-z(2:n)',ones(n-1,1)];
Y=x0(2:n)';
u=B\Y
x=dsolve('Dx+a*x=b','x(0)=x0');
x=subs(x,{
    
    'a','b','x0'},{
    
    u(1),u(2),x1(1)});
yuce1=subs(x,'t',[0:n-1]);
digits(6),y=vpa(x) %为提高预测精度,先计算预测值,再显示微分方程的解
yuce=[x0(1),diff(yuce1)]
epsilon=x0-yuce %计算残差
delta=abs(epsilon./x0) %计算相对误差
rho=1-(1-0.5*u(1))/(1+0.5*u(1))*lamda %计算级比偏差值

7.SARA疫情对某些经济指标影响问题

ここに画像の説明を挿入
ここに画像の説明を挿入

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
load han1.txt %把原始数据保存在纯文本文件han1.txt中
han1(end,:)=[];m=size(han1,2);
x0=mean(han1,2);
x1=cumsum(x0)
alpha=0.4;n=length(x0);
z1=alpha*x1(2:n)+(1-alpha)*x1(1:n-1)
Y=x0(2:n);B=[-z1,ones(n-1,1)];
ab=B\Y
k=6;
x7hat=(x0(1)-ab(2)/ab(1))*(exp(-ab(1)*k)-exp(-ab(1)*(k-1)))
z=m*x7hat
u=sum(han1)/sum(sum(han1))
v=z*u

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

8.道路交通事故灰色Verhulst预测模型

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
x1=[4.93 5.33 5.87 6.35 6.63 7.15 7.37 7.39 7.81 8.35
9.39 10.59 10.94 10.44];
n=length(x1);
nian=1990:2003;
plot(nian,x1,'o-');
x0=diff(x1);
x0=[x1(1),x0]
for i=2:n
z1(i)=0.5*(x1(i)+x1(i-1));
end
z1
B=[-z1(2:end)',z1(2:end)'.^2]
Y=x0(2:end)'
abhat=B\Y %估计参数 a,b 的值
x=dsolve('Dx+a*x=b*x^2','x(0)=x0'); %求解常微分方程
x=subs(x,{
    
    'a','b','x0'},{
    
    abhat(1),abhat(2),x1(1)}); %代入参数值
yuce=subs(x,'t',0:14) %计算预测值
digits(6); x=vpa(x) %显示微分方程的解,为了提高计算精度,把该语句放在计算预测值
之后,或者不使用该语句
yuce(16)=yuce(15);
x1_all=[x1,9.92,10.71];
epsilon=x1_all-yuce %计算残差
delta=abs(epsilon./x1_all) %计算相对误差
delta_mean=mean(delta) %计算平均相对误差
x1_all_0=x1_all-x1_all(1); %数据列的始点零化像
yuce_0=yuce-yuce(1); %数据列的始点零化像
s0=abs(sum(x1_all_0(1:end-1))+0.5*x1_all_0(end));
s1=abs(sum(yuce_0(1:end-1))+0.5*yuce_0(end));
tt=yuce_0-x1_all_0;
s1_s0=abs(sum(tt(1:end-1))+0.5*tt(end));
absdegree=(1+s0+s1)/(1+s0+s1+s1_s0) %计算灰色绝对关联度
c=std(epsilon,1)/std(x1_all,1) %计算标准差比值

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
x1=[4.93 5.33 5.87 6.35 6.63 7.15 7.37 7.39 7.81 8.35
9.39 10.59 10.94 10.44];
n=length(x1);
x0=diff(x1);
x0=[x1(1),x0]
for i=2:n
z1(i)=0.5*(x1(i)+x1(i-1));
end
B=[-z1(2:end)',ones(n-1,1)];
Y=x0(2:end)';
abhat=B\Y %估计参数 a,b 的值
x=dsolve('Dx+a*x=b','x(0)=x0');
x=subs(x,{
    
    'a','b','x0'},{
    
    abhat(1),abhat(2),x1(1)});
yuce=subs(x,'t',0:14) %计算预测值
digits(6); x=vpa(x) %显示微分方程的解,为了提高计算精度,把该语句放在计算预测
值之后,或者不使用该语句
yuce(16)=yuce(15);
x1_all=[x1,9.92,10.71];
epsilon=x1_all-yuce %计算残差
delta=abs(epsilon./x1_all) %计算相对误差
delta_mean=mean(delta) %计算平均相对误差
x1_all_0=x1_all-x1_all(1); %数据列的始点零化像
yuce_0=yuce-yuce(1); %数据列的始点零化像
s0=abs(sum(x1_all_0(1:end-1))+0.5*x1_all_0(end));
s1=abs(sum(yuce_0(1:end-1))+0.5*yuce_0(end));
tt=yuce_0-x1_all_0;
s1_s0=abs(sum(tt(1:end-1))+0.5*tt(end));
absdegree=(1+s0+s1)/(1+s0+s1+s1_s0) %计算灰色绝对关联度
c=std(epsilon,1)/std(x1_all,1) %计算标准差比值

ここに画像の説明を挿入

9.GM(2,1)和DGM模型

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
x0=[41,49,61,78,96,104];
n=length(x0);
x1=cumsum(x0)
a_x0=diff(x0);
a_x0=[0,a_x0]
for i=2:n
z(i)=0.5*(x1(i)+x1(i-1));
end
B=[-x0(2:end)',-z(2:end)',ones(n-1,1)];
Y=a_x0(2:end)';
u=B\Y
x=dsolve('D2x+a1*Dx+a2*x=b','x(0)=c1,x(5)=c2');
x=subs(x,{
    
    'a1','a2','b','c1','c2'},{
    
    u(1),u(2),u(3),x1(1),x1(6)});
yuce=subs(x,'t',0:n-1);
digits(6),x=vpa(x)
x0_hat=[yuce(1),diff(yuce)]
epsilon=x0-x0_hat
delta=abs(epsilon./x0)

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
x0=[2.874,3.278,3.39,3.679,3.77,3.8];
n=length(x0);
a_x0=diff(x0);
a_x0=[0,a_x0]
B=[-x0(2:end)',ones(n-1,1)];
Y=a_x0(2:end)';
u=B\Y
x=dsolve('D2x+a*Dx=b','x(0)=c1,Dx(0)=c2');
x=subs(x,{
    
    'a','b','c1','c2'},{
    
    u(1),u(2),x0(1),x0(1)});
yuce=subs(x,'t',0:n-1);
digits(6),x=vpa(x)
x0_hat=[yuce(1),diff(yuce)]
epsilon=x0-x0_hat
delta=abs(epsilon./x0)

10.GM(1,N)和GM(0,N)模型

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
x10=[2.874,3.278,3.307,3.39,3.679];
x20=[7.04,7.645,8.075,8.53,8.774];
n=length(x10);
x11=cumsum(x10)
x21=cumsum(x20)
for i=2:n
z11(i)=0.5*(x11(i)+x11(i-1));
end
B=[-z11(2:n)',x21(2:n)'];
Y=x10(2:n)';
u=B\Y
x=dsolve('Dx+a*x=b*x2','x(0)=x0');
x=subs(x,{
    
    'a','b','x0','x2'},{
    
    u(1),u(2),x10(1),'x21'});
digits(6),x=vpa(x);x=simple(x)
x=subs(x,{
    
    't','x21'},{
    
    [0:n-1],x21(1:n)})
xhat=[x(1),diff(x)]
epsilon=x10-xhat
delta=abs(epsilon./x10)

ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

clc,clear
x10=[2.874,3.278,3.307,3.39,3.679];
x20=[7.04,7.645,8.075,8.53,8.774];
n=length(x10);
x11=cumsum(x10)
x21=cumsum(x20)
B=[ones(n,1),x21(1:n)'];
Y=x11(1:n)';
u=B\Y
x11hat=B*u
x10hat=[x11hat(1),diff(x11hat)']
epsilon=x10-x10hat
delta=abs(epsilon./x10)

11.总结

ここに画像の説明を挿入

おすすめ

転載: blog.csdn.net/YouWan797411/article/details/130893683