1.np.repeat https://blog.csdn.net/u010496337/article/details/50572866/
インポートnumpyのようNP = np.array(([ 1、2 ]、[ 3、4 ])) プリント(np.repeat(2 )) #结果: [ 1 1 2 2 3 3 4 4 ]
時間軸=なし場合、行ベクトルとして平ら。
指定された軸の場合:
プリント(np.repeat(A、2、Axisは= 0 )) #結果 [ 1 2 ] [ 1 2 ] [ 3 。4 ] [ 3 。4 ]
2.DE作品。
2つの細胞型が指定された場合、細胞の種類N_SAMPLESの二種類からのサンプルは、もちろん、より良い、それはベイズ因子ベータを使用して計算され、パーセンテージとして表さVAEのpx_scales後モデル(補正)を得ますそれは、二つの行列の大きさ、及び平均化、ログ(RES / 1-RES)によって決定されます。
それは、すべての対1である場合には、旋回要求、現在のセルの試料セル1と、他の別のセルとして、及びベイズ因子遺伝子のタイプです。
np.random.choice機能3.
インポートnumpyのAS NPの 印刷(np.random.choice([ 1、2、3、4 ]、10 )) #結果 [ 3 。4 2 。1 。4 。3 。1 。4 。1 。3 ] 要求の数は配列の長さより大きい場合、それはオリジナルでありますこのような自動サンプリングはああ繰り返すことができます。
二つのバッチに分割する4は、一つの同一のデータのローカライズ異なるバッチであり、他方は、予想よりも少し複雑な、複数のデータセットの異なるバッチです。
デバッグ時にこのメッセージが表示されます。
6.NearestNeighbors https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.NearestNeighbors.html
良いドキュメントを#または確認し、ソースコードの実現を見ることができます。
7.エントロピーの計算が、理解することは本当に難しいです。
スコア+ = np.mean( [ エントロピー( バッチ[#Returnsインデックスが含有するアレイのタプル(行、列) kmatrix [インデックス] .nonzero()[ 1 ] [#找到权重不为0的 kmatrix [インデックス]。ゼロ以外の()[ 0 ] == I ] ] ) のための I における範囲(n_samples_per_pool)#100 ] )
最後に、理解するようになった例を引用:
インポートnumpyのようにNP キロ = np.array([ 0、0、1 ]、[ 1、0、0 ]、[ 0、1、0 ]) インデックス = [ 0、2 ] プリント(キロ[インデックス]。ゼロ以外の()[ 1 ] [離れ[インデックス] .nonzero()[ 0 ] == 0 ]) #输出 [ 2 ] >>> 離れ[インデックス] .nonzero() (配列([ 0、1 ]、DTYPE = Int64型)、アレイ([ 2、1]、DTYPE = int64モード)) >>>キロ[インデックス] .nonzero()[ 0 ] == 0 アレイ([真、偽]) >>>キロ[インデックス] .nonzero()[ 1 ] 配列([ 2、1 ]、DTYPE = int64モード)
8.クロスエントロピー関数の使用:
FREは、時間の同じバッチに属しているほぼすべて、すなわち、0または1になる傾向がある場合、エントロピーはゼロになる傾向があります。
クロスエントロピーについて学ぶために9。
https://blog.csdn.net/tsyccnh/article/details/79163834(鑑賞します)
10.tf.onehot、元のカテゴリ、onehot種類に応じてデータ変換のカテゴリ。
https://blog.csdn.net/nini_coded/article/details/79250600
インポートtensorflow としてTFの クラス = 3つの ラベル = tf.constant([ 0、1、2 ])#输入的元素值最小为0、最大为2 出力 = tf.one_hot(ラベル、クラス) のSES = tf.Session() tf.Session()ととしてのSES: sess.run(tf.global_variables_initializer()) 出力 = sess.run(出力) プリント(" ワンホットの出力である:" 、出力) #(「ワンホットISの出力:' 、 #アレイ([[ 1。、 0、 0 ]、 #[ 0、 1、 0 ]、 #[ 0、 0、 1 ]]、DTYPE =のfloat32))
そして、手動でビットを試してみてください。
インポートtensorflow としてTF A = tf.one_hot([ 0、0、0、1、1、1 ]、2 ) tf.Session有する()などのSES: プリント(sess.run()) #输出 [ 1。0 ] [ 1。0 ] [ 1。0 ] [ 0。1 ] [ 0。1 ] [ 0。1。]]
11.tf.random_normal https://blog.csdn.net/dcrmg/article/details/79028043
B = tf.random_normal([ 10 ]) tf.Session有する()などのSES: プリント(sess.run(B)) #输出 [ - 0.7680359 0.9331585 0.14169899 0.75573707 - 1.3931639 - 0.7400114 0.58605003 1.8533127 - 0.17746244 - 1.0043402 ]
分布の値を指定するために使用されすぎる値の指定された数の被験体から除去されます。パラメータが指定されていない、そして、それは標準正規分布です。
12.ネットワーク層の機能が有効になっていませんか?稠密(H、self.n_input、活性化=なし)
https://cloud.tencent.com/developer/article/1061802(鑑賞します)
Fに対応する(X)= X。
13.tf.nn.softplus https://blog.csdn.net/ai_lx/article/details/88953587
インポートtensorflow としてTF A - ([= tf.constant 1.0、12.0 ]) tf.Session()を持つとして:SESの B = tf.nn.softplus() プリント(sess.run(B)) #输出 [ 0.31326166 12.000006 ]
ソフトプラスです。#ソフトマックス、正規化されていないではありません。
式は、ログ(EXP(機能)+ 1)、入力フィーチャです。
14.検索ZINBの実装コードは、失敗した、類似を見つけることができませんでした
case_zero case_non_zero検索、フィッティング説明ZINB分布、見つけるhttps://jdblischak.github.io/singlecell-qtl/zinb.htmlを、あまりにも複雑に見えます。
すなわち、ZINB時間を計算する可能性はそれほどカウントされます。
そして、一般の尤度値が計算されますか?可能性を計算する方法。
一般に、パラメータθ及びオリジナルデータと服従の分布を考慮すると、尤度値は、パラメータ尤度の電流値を算出することができます。しかし、今私は例がない、抽象的に感じます。