【DataWhale学习记录15-02】零基础入门NLP - 新闻文本分类赛题 - 02数据读取与数据分析

2 Task2 数据读取与数据分析

2.1 目标:

  1. 学习使用pandas读取赛题数据
  2. 分析赛题数据的分布规律

2.2 数据读取

说明:赛题数据虽然是文本数据,每个新闻是不定长的,但任然使用csv格式进行存储。因此可以直接使用Pandas完成数据读取的操作。

import pandas as pd
train_df = pd.read_csv('../input/train_set.csv', sep='\t', nrows=100)

这里的 read_csv由三部分构成:
3. 读取的文件路径,这里需要根据改成你的本地路劲,可以使用绝对路径或相对路径;
4. 分隔符sep,为每列分割的字符,设置为**\t即可;
5. 读取行数
nrows**,为此次读取文件的函数,是数值类型(由于数据集比较大,建议先设置为100);结果

2.3 数据分析

需得出的结论:
赛题数据中:

  1. 新闻文本的长度是多少?
  2. 数据类型分布是怎样的,哪些类型比较多?
  3. 字符分布是怎样的?

2.3.1 句子长度分析

赛题数据中,每行句子的字符使用空格隔开,所以可以直接统计单词的个数来得到每个句子的长度。统计并如下:

%pylab inline
train_df['text_len'] = train_df['text'].apply(lambda x: len(x.split(' ')))
print(train_df['text_len'].describe())

输出结果:
在这里插入图片描述
统计可得出:每个句子平均由907个字符构成,最短的句子长度为2,最长的句子长度为57921。

下图将句子长度绘制了直方图。(可见大部分句子都集中在2000以内)

_ = plt.hist(train_df['text_len'], bins=200)
plt.xlabel('Text char count')
plt.title("Histogram of char count")

在这里插入图片描述

2.3.2 新闻类别分别

对数据集的类别进行分布统计,具体统计每类新闻的样本个数。

train_df['label'].value_counts().plot(kind='bar')
plt.title('News class count')
plt.xlabel("category")

在这里插入图片描述
在这里插入图片描述
从统计结果可看出:赛题的数据集类别分布存在较为不均匀的情况。在训练集中,科技类新闻最多,其次是股票类新闻,最少的新闻是星座新闻。

2.3.3 字符分布统计

该步骤统计每个字符出现的次数,首先可以将训练集种的所有的句子进行拼接进而划分为字符,并统计每个字符的个数。

from collections import Counter
all_lines = ' '.join(list(train_df['text']))
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:d[1], reverse = True)
print(len(word_count))
# 6869
print(word_count[0])
# ('3750', 7482224)
print(word_count[-1])
# ('3133', 1)

输出结果:
在这里插入图片描述
可知:训练集中,总共包括6869个字,其中编号3750的字出现次数最多,编号3133的字出现的次数最少。

这里还可以根据字在每个句子的出现情况,反推出标点符号。

train_df['text_unique'] = train_df['text'].apply(lambda x: ' '.join(list(set(x.split(' ')))))
all_lines = ' '.join(list(train_df['text_unique']))
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:int(d[1]), reverse = True)
print(word_count[0])
# ('3750', 197997)
print(word_count[1])
# ('900', 197653)
print(word_count[2])
# ('648', 191975)

输出结果:
在这里插入图片描述
上面的代码统计了不同字符在句子中出现的次数,其中字符3750,字符900和字符648在20w新闻的覆盖率接近99%,很可能是标点符号

2.3.4 数据分析的结论

  1. 由上述分析可知,赛题中每个新闻包含的字符个数平均为1000个,还有一些新闻字符比较长;
  2. 赛题中新闻类别分布不均匀,科技类新闻样本量接近4w,星座类新闻样本量不到1k。
  3. 赛题总共包括7000-8000个字符;

通过数据分析,我们还可以得出以下结论:

  1. 每个新闻平均字符个数较多,可能需要阶段;
  2. 由于类别不均衡,会严重影响模型的精度;

2.3.5 本章小结

本文对赛题数据进行了 读取,并对新闻句子长度、类型和字符进行了可视化分析。

2.4 作业

  1. 假设字符3750,字符900和字符648是句子的标点符号,请分析赛题每篇新闻平均由多少个句子构成?
    在这里插入图片描述
    即:每篇新闻平均80个句子组成
  2. 统计每类新闻中出现次数最多的字符。
train_df['text_unique'] = train_df['text'].apply(lambda x: ' '.join(list(set(x.split(' ')))))
all_lines_in_a_class = []
for i in range(14):
    line = ' '.join(train_df[train_df['label'] == i]['text_unique'])
    all_lines_in_a_class.append(re.sub('3750|900|648','',line))
for i,line in enumerate(all_lines_in_a_class):
    line = filter(lambda x: x, line.split(' '))
    word_count = Counter(line)
    word_count = sorted(word_count.items(), key=lambda d: int(d[1]), reverse=True)
    print(i,':',word_count[0])

在这里插入图片描述
各类型出现次数最高的字符。

猜你喜欢

转载自blog.csdn.net/qq_40463117/article/details/107489719
今日推荐