# scrapy pipline
class BazaarPipeline(object):
def open_spider(self, spider):
self.filename = open("digital.csv", "wb")
# 创建一个csv文件读写对象,参数是需要保存数据的csv文件对象
self.csv_exporter = CsvItemExporter(self.filename)
# 表示开始进行数据写入
self.csv_exporter.start_exporting()
def process_item(self, item, spider):
self.csv_exporter.export_item(item)
return item
def close_spider(self, spider):
# 表示结束数据写入
self.csv_exporter.finish_exporting()
self.filename.close()
# 其他文件对csv文件操作
# 读取文件
import csv
import re
#读取文件
csv_file = csv.reader(open('digital.csv','r'))
print(csv_file)
for data in csv_file:
# 可用下标 获取相对应的数据
# print(data[5])
# 写入文件
qq_list = ['xxx','xxx']
QQ_list = ['xxxx','xxx']
content = open('number.csv','a', newline='')
csv_write = csv.writer(out,dialect='excel')
csv_write.writerow(QQ_list)
csv_write.writerow(qq_list)
print ("ok")
python 对csv文件操作
猜你喜欢
转载自blog.csdn.net/RedPintings/article/details/83587554
今日推荐
周排行