論文実験擬似コード

この記事では、論文の実験セクションで擬似コードを記述し、深いフレームワークkerasを学習フレームワークを使用してPython言語を用いた実験は、実験全体を見ては、いくつかの部分に分けました:

0ラテックスフレームの擬似コード

\documentclass[11pt]{ctexart}  
\usepackage[top=2cm, bottom=2cm, left=2cm, right=2cm]{geometry}  
\usepackage{algorithm}  
\usepackage{algorithmicx}  
\usepackage{algpseudocode}  
\usepackage{amsmath}
\usepackage{amsfonts,amssymb}

\floatname{algorithm}{Algorithm}  
\renewcommand{\algorithmicrequire}{\textbf{Input:}}  
\renewcommand{\algorithmicensure}{\textbf{Output:}}  

\begin{document}
	...伪代码内容
\end{document}

第1研修(first.py)

関数の実装:
入力データファイル、処理後のデータ、トレーニングセットとテストセットに切断し、ローカルに対応するファイルを生成します。全体的なデータ、定量化するためにCountVectorizerを使用してテキストメッセージ、および辞書を生成します。メッセージテキストワードへのデータのバッグ単語モデルのトレーニングセットは、袋を特徴とし、訓練モデルのこれらの機能は、モデルは、ローカルファイルを生成します。最後に、ファイルが完成し稼働しているので、評価するための負荷のトレーニングモデルにファイルを設定します。

ラテックス効果マップ:
レンダリング

ラテックス擬似コード:

\begin{algorithm}  
		\caption{first training}  
		\begin{algorithmic}[1] %每行显示行号  
			\Require $d$ is the data of first training; $K$ is cross-validation times; Algorithm SGD is named $sgd$			  
			\Ensure the first train model $m$; $trainSet$ and $testSet$; training time $T$; evaluation result $res$			
			\State $(trainSet, testSet) \gets $ split($d$)
			\State $S \gets $ (split $trainSet$ in equal parts of $K$)	
			\For {each round $t=1,2,...,K$} 
				\State $\left\{verify, train\right\} \gets \left\{S_{t}, S-S_{t}\right\} $
				\State $(tf, vf) \gets $ (generate spam feature of $train$ and $verify$)	
				\State $m_{t} \gets $ modelFit($sgd, tf$)
				\State $r_{t} \gets $ modelEvaluate($m_{t}, vf$)
				\State $T_{t} \gets $ (statistics training time)
			\EndFor
			\State $m \gets $ bestModel($\left\{ (m_{t}, r_{t}) | t=1,2,...,K \right\}$)
			\State $T \gets   \mathbb{E}({\left\{ T_{t} | t=1,2,...,K \right\}})$
			\State $test \gets $ (generate spam feature of $testSet$)
			\State $res \gets $ modelEvaluate($m, test$)
			
		\end{algorithmic}  
	\end{algorithm} 

2第2のトレーニング(second.py)

ラテックス効果マップ:
第2のトレーニング
ラテックス擬似コード:

\begin{algorithm}  
		\caption{second training}  
		\begin{algorithmic}[1] %每行显示行号  
			\Require $D$ is the training data set for all clients; the $K$ clients are indexed by $k$; $m$ is the first training model			
			\Ensure the second train model set $\left\{m_{k}|k=1,2,...,K \right\}$; training time $t_{k}$ for each $m_{k}$			
			\For {each client data $d \in D$ }
			\State $f \gets $ (generate spam feature of $d$ )
			\State $m_{k} \gets $ modelTrainedAgain($m,f$)	  
			\State $t_{k} \gets $ (statistics training time)
			\EndFor 			
		\end{algorithmic}  
	\end{algorithm}

3平均モデル加重平均モデル(avgmodel.py)

ラテックス効果マップ:
平均加重平均行使モデルとモデル
擬似コード:

	\begin{algorithm}  
		\caption{avgmodel}  
		\begin{algorithmic}[1] %每行显示行号  
			\Require $C$ is the model set for all clients; $w$ is the weight of each model;  the $K$ clients are indexed by $k$ and $i$; $m$ is the first training model ; $d$ is the test data of second training			
			\Ensure average model $am$ and weighted average model $wm$; $r$ is the evaluation result of $am$ and $wm$; $t$ is the respective training and evaluation times for $am$ and $wm$ 			
			\For {each client model $c \in C$ }
				\State $d_{k} \gets $ (read the data in model $c$)
			\EndFor 
			\State $ad \gets \sum\limits_{k=1}^{K}(\frac{d_{k}}{K})$
			\State $wd \gets \sum\limits_{k=1}^{K}(\frac{w_{k}}{\sum\limits_{i=1}^{K}w_{i} } \times d_{k})$
			\State $(am, wm) \gets $ (set model $ad$ and $wd$ into $m$ respectively)
			\State $f \gets $ (generate spam feature of $d$)
			\State $r \gets $ (evaluate model $am$ and $wm$ with $f$ )
			\State $t \gets $ (count the training time of $a$ and $w$ respectively)
		\end{algorithmic}  
	\end{algorithm}  

おすすめ

転載: blog.csdn.net/qq_37195179/article/details/104380670