販売分析の最後の数日間

三日目

1. CSVファイルには、より高速なExcelファイルよりもはるかに優れている読み込みます。

panython3 2.範囲はxrangeのでpython2です。

四日目

3.深刻な精度の問題をフィッティング300日は、最初に私は0で、状況は、それから、私は彼らがスコープのリードを超えて予測し合うことを疑うようになったままになり、負の値に対処する必要があり、マイナスに転じていましたしかし、xの発見はさえ予測し、的外れ非常に遠く、まだ同じ、y_predictに合わせ、その後、私はそれがデータを標準化するために必要なものではないと思います。その後、私は本当に良いstandardScaler、安定性データを見つけました。

同じ情報の配列を生成します

new_array = np.zeros((5 4 ))のためのI における範囲(3 ):new_array [I] = np.array([ 0.25 ] * 4

五日目

スケーラーのスケーリングの問題

スケーラーは、問題を見つけ、問題があることが検出されたすべてのデータのスケーラ、前に、実際にはデータの各行が、それは感じることができるようにスケーリングされていることであり、これはまた、スケールの次元で達成することができ、バックデータを予測することができ、またはための次元の問題のそして、スケールバックすることはできません。

このスケーリングのための予測精度を向上させるためにデータを減らすことによって、ギャップを狭めるため、一時的となるという問題がある;しかし、別の問題が来ているが、実際に一度戻ってスケール、すなわち増幅した後、ギャップはまだ非常に明白であることがわかりました。私はこの問題は、実際には素晴らしいではありません標準化された意味を予測していると思う;分類スケールのフィールドの意味はスケーリング変数の重みの計算であるため、上から重い影響から生じた異なる寸法を低減することができるので、これは、比較的大きい。しかし、上記の回帰で異なっています。

次元削減

2次元データディメンション1リットルは、変形(-1,1)によって達成される、二次元の一次元削減()はnp.array.flattenによって達成することができます。

また、for文の方法によって達成することができます。

X = [[[1,2,3]、[3,4,5]]]

X = [yのxに対するXにおけるYのX]

プリント(X)

X = [yのxに対するXにおけるYのX]

プリント(X)

出力:

[[1、2、3]、[3、4、5] [1、2、3、3、4、5]

六日目

その後、私は、私たちの測位システムデータのフィルタリングを見て決めました

ラヴェル()

多次元配列の次元削減は、一次元アレイです。

Z = np.array([[[[3]]]、[[[3]]]])z.ravel()

アレイ([3,3])

おすすめ

転載: www.cnblogs.com/xiashiwendao/p/11257092.html