テキスト分類プロセス:
テキスト前処理アイテム:
1. https://www.cnblogs.com/jiangxinyang/p/10207482.html
深さの研究では、ブログのテキスト分類を使用して行きました。私はCNNを直接実行することができ、テキストを指示します。
2. https://blog.csdn.net/u010297828/article/details/50465263
スパムメッセージの分類
3. http://xccds1977.blogspot.com/2015/05/word2vec.html
word2vec分類。この平均値は、ニューラルネットワークの入力としてではありません。
4. https://zmister.com/archives/173.html
SMSスパム
ごみCSDN、メンバーへ。
6. https://zhuanlan.zhihu.com/p/26729228
本当のもっと楽しく
テキストの分類が使用されるいくつかの基本的な概念が必要です。
1. https://www.cnblogs.com/wangbogong/p/3211833.html
テキスト表現 - ベクトル空間モデル、単語モデルのバッグ。これは、最も基本的なものです。
2. https://www.cnblogs.com/wangbogong/p/3251132.html
特徴選択。ベクトル空間モデルの最適化の一種。
3. https://www.jiqizhixin.com/articles/2018-07-25-5
中国のNLPのいくつかの概念を導入。私たちは、ケースについての詳細を学ぶ必要があります。
4. http://www.jeyzhang.com/text-classification-in-action.html
機能が動作します。特徴抽出の複数のはかなり理解していませんでした。
5。
まず、テキストの前処理
主ワード口ごもるが含まれています。
クローラモジュール:scrapy。
1. https://docs.scrapy.org/en/latest/topics/architecture.html#topics-architecture
これは、全体のフローチャートscrapyがscrapyを理解するのに役立ちあります
2. https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html#find
美しいスープの解析
第二に、特徴選択
1. http://sklearn.lzjqsdd.com/modules/feature_extraction.html
空間ベクトルモデル、テキスト変換の使用に基づいていくつかの実装ではskleran。
2. https://zhuanlan.zhihu.com/p/33779124
また、機能sklearn抽出の一部に基づきます。機能のカップルは非常に重要です。
3. https://blog.csdn.net/tianbwin2995/article/details/51693396
言葉モデルsklearnのか、実現バッグ。
4. https://blog.csdn.net/u014595019/article/details/52433754
そして、特徴抽出のためのgenssim sklearnライブラリを結合。
5。
第三に、モデルのトレーニング
第四に、学習の深さ
1. https://www.cnblogs.com/subconscious/p/5058741.html
ニューラルネットワークスターター
2。https://www.cnblogs.com/subconscious/p/4107357.html
続行を開始
3. https://www.zhihu.com/question/22553761/answer/126474394
再び
4. https://www.sohu.com/a/235924191_633698
BPバックプロパゲーション
5. https://blog.csdn.net/u014303046/article/details/78200010#351__296
BPは継続します
6. https://zhuanlan.zhihu.com/p/21930884
さらに、ニューラルネットワークのための
7. https://blog.csdn.net/weixin_42137700/article/details/84302045
いくつかの基本的な概念
ニューラルネットワークを知っている必要があり、これらは、確率的勾配降下するものです。。非常に基本的な。
五、word2vec
1. https://xiaosheng.me/2017/06/05/article67/
非常に重要な統計的言語モデル、
2. https://blog.csdn.net/qq_39422642/article/details/78658309
単語ベクトルの開発
3. https://blog.csdn.net/leadai/article/details/81369884
または単語ベクトルの開発
4. https://blog.csdn.net/a635661820/article/details/44130285
NNLM原理
5. https://www.cnblogs.com/ooon/p/5558119.html
NNLMとword2vec
6. https://spaces.ac.cn/archives/4299
word2vec原則勧告
7. https://blog.csdn.net/itplus/article/details/37969817
word2vecはお勧めしますが、その上でPDFのURLのダウンロードがあります。
8. https://blog.csdn.net/Z4a9Gx/article/details/80268126
word2vec原則
9. https://blog.csdn.net/shuihupo/article/details/85156544
トレーニングword2vec
六、テキストCNN
の原則を紹介
2. http://www.52nlp.cn/tag/textcnn
テキストCNN
3. https://me.csdn.net/mytestmy
パーソナルスペース
保存された理由を忘れてしまいました。
4。
セブンいくつかのアルゴリズムを導入しました
1. https://www.cnblogs.com/zhoukui/p/8584085.html
いくつかの一般的な機械のアルゴリズムは、この行為に基づいて変更することができます含まれています。K-最近傍、ナイーブベイズ、ロジスティック回帰、K-は、クラスタリングが自分の考えやPythonのコードを持っていることを意味し。
2. https://github.com/csuldw/MachineLearning/tree/master/Kmeans
関数kmeansアルゴリズムコード。
3。
八、モデル評価
https://blog.csdn.net/sinat_26917383/article/details/75199996