python学习随记(三)

Q1.  UnicodeEncodeError: 'utf-8' codec can't encode character '\udcd5' in position 84: surrogates not allowed 

在windows开发TensorFlow程序读取scv数据的时候突然出现这个错,一开始还以为是编码的问题,结果再文件开头加上#coding:utf-8 还是报一样的错误


最后查阅各种资料发现错误的原因在于程序中的路径中使用了单反斜线:

E:\code\TensorFlow\reader.csv

在路径中这样写看似没有报错,实际上却不能执行,修改成

E:\\code\\TensorFlow\\reader.csv 

成功执行

  Q2:tf.unstack()命令

unstack(
    value,
    num=None,
    axis=0,
    name='unstack'
)

tf.unstack()  

  将给定的R维张量拆分成R-1维张量

  value根据axis分解成num个张量,返回的值是list类型,如果没有指定num则根据axis推断出!

DEMO:



 
import tensorflow as tf
a = tf.constant([3,2,4,5,6])
b = tf.constant([1,6,7,8,0])
c = tf.stack([a,b],axis=0)
d = tf.stack([a,b],axis=1)
e = tf.unstack([a,b],axis=0)
f = tf.unstack([a,b],axis=1)
 
with tf.Session() as sess:
    print(sess.run(c))
    print(sess.run(d))
    print(sess.run(e))
    print(sess.run(f))
输出:

[[3 2 4 5 6]
[1 6 7 8 0]]

--------------------
[[3 1]
[2 6]
[4 7]
[5 8]
[6 0]]

----------------------
[array([3, 2, 4, 5, 6]), array([1, 6, 7, 8, 0])]

----------------------
[array([3, 1]), array([2, 6]), array([4, 7]), array([5, 8]), array([6, 0])]

Q3. python”中的os.path.splitext是干什么用的

作用 :分离文件名与扩展名;默认返回(fname,fextension)元组,可做分片操作 。

比如:

<span style="font-size: 18px;">import os  

path_01='D:/User/wgy/workplace/data/notMNIST_large.tar.gar'  

path_02='D:/User/wgy/workplace/data/notMNIST_large'  

root_01=os.path.splitext(path_01)  

root_02=os.path.splitext(path_02)  

print(root_01)  

print(root_02)</span>

python中的os.path模块用法:

  1. dirname()   用于去掉文件名,返回目录所在的路径

    如:

    >>> import os

    >>> os.path.dirname('d:\\library\\book.txt')'d:\\library'

  2. basename()   用于去掉目录的路径,只返回文件名

    如:

    >>> import os

    >>> os.path.basename('d:\\library\\book.txt')'book.txt'

  3. join()   用于将分离的各部分组合成一个路径名

    如:

    >>> import os

    >>> os.path.join('d:\\library','book.txt')'d:\\library\\book.txt'

  4. split()  用于返回目录路径和文件名的元组

    如:

    >>> import os

    >>> os.path.split('d:\\library\\book.txt')('d:\\library', 'book.txt')

  5. splitdrive()    用于返回盘符和路径字符元组

    >>> import os

    >>> os.path.splitdrive('d:\\library\\book.txt')('d:', '\\library\\book.txt')

  6. splitext()    用于返回文件名和扩展名元组

    如:

    >>> os.path.splitext('d:\\library\\book.txt')('d:\\library\\book', '.txt')

    >>> os.path.splitext('book.txt')('book', '.txt')

Q4:pandas.read_csv 命令
参见https://www.cnblogs.com/datablog/p/6127000.html
注:另外python中csv库可以比较方便的在不同应用之间迁移数据。可以将数据批量导出为csv
格式,然后倒入到其他应用程序中。
Q5:python中os库相关
?
import os
help(os)  ##查询os库功能
如果你对linux基本操作了解的话,下面的一些os方法应该会很熟悉的,因为基本和linux下的操作方法相同。下面举几个常用的:

 
 
1.os.getcwd() 获得当前路径
2.os.listdir(path) 获得目录中的内容
3.os.mkdir(path) 创建目录4.os.rmdir(path) 删除目录5.os.isdir(path) os.isfile(path) 判断是否为目录或者文件6.os.remove(path) 删除文件7.os.rename(old, new) 重命名文件或者目录8.os.name 输出字符串指示正在使用的平台。如果是window 则用'nt'表示,对于Linux/Unix用户,它是'posix'9.os.system() 运行shell命令10.os.path.split() 返回一个路径的目录名和文件名11.os.path.splitext() 分离文件名与扩展名12.os.path.getsize(name) 获得文件大小,如果name是目录返回0L13.os.getegid() 返回当前进程(process)所属的有效group id 只有unix可用14.os.geteuid() 返回当前进程所属的用户ID (Unix)15.os.getgid() 返回当前进程所属的真实组ID(real group id)16.os.getlogin() 返回当前登陆用户名17.os.getpgrp() 返回当前进程组的ID(Unix)18.os.getpid() 返回当前进程的PID,( Unix, Windows )19.os.getppid() 返回当前进程父进程的ID(Unix)20.os.getuid() 返回当前进程所属用户ID(Unix)

Q6.其他常用库:numpy、pandas、matplotlib

import numpy as np  
2.import pandas as pd  
3.import matplotlib.pyplot as plt  
4.  
5.---------------numpy-----------------------  
6.arr = np.array([1,2,3], dtype=np.float64)  
7.np.zeros((3,6))  np.empty((2,3,2)) np.arange(15)  
8.arr.dtype arr.ndim arr.shape  
9.arr.astype(np.int32) #np.float64 np.string_ np.unicode_  
10.arr * arr arr - arr 1/arr  
11.arr= np.arange(32).reshape((8,4))  
12.arr[1:3, : ]  #正常切片  
13.arr[[1,2,3]]  #花式索引  
14.arr.T   arr.transpose((...))   arr.swapaxes(...) #转置  
15.arr.dot #矩阵内积  
16.np.sqrt(arr)   np.exp(arr)    randn(8)#正态分布值   np.maximum(x,y)  
17.np.where(cond, xarr, yarr)  #当cond为真,取xarr,否则取yarr  
18.arr.mean()  arr.mean(axis=1)   #算术平均数  
19.arr.sum()   arr.std()  arr.var()   #和、标准差、方差  
20.arr.min()   arr.max()   #最小值、最大值  
21.arr.argmin()   arr.argmax()    #最小索引、最大索引  
22.arr.cumsum()    arr.cumprod()   #所有元素的累计和、累计积  
23.arr.all()   arr.any()   # 检查数组中是否全为真、部分为真  
24.arr.sort()   arr.sort(1)   #排序、1轴向上排序  
25.arr.unique()   #去重  
26.np.in1d(arr1, arr2)  #arr1的值是否在arr2中  
27.np.load() np.loadtxt() np.save() np.savez() #读取、保存文件  
28.np.concatenate([arr, arr], axis=1)  #连接两个arr,按行的方向  
29.  
30.  
31.---------------pandas-----------------------  
32.ser = Series()     ser = Series([...], index=[...])  #一维数组, 字典可以直接转化为series  
33.ser.values    ser.index    ser.reindex([...], fill_value=0)  #数组的值、数组的索引、重新定义索引  
34.ser.isnull()   pd.isnull(ser)   pd.notnull(ser)   #检测缺失数据  
35.ser.name=       ser.index.name=    #ser本身的名字、ser索引的名字  
36.ser.drop('x') #丢弃索引x对应的值  
37.ser +ser  #算术运算  
38.ser.sort_index()   ser.order()     #按索引排序、按值排序  
39.df = DataFrame(data, columns=[...], index=[...]) #表结构的数据结构,既有行索引又有列索引  
40.df.ix['x']  #索引为x的值    对于series,直接使用ser['x']  
41.del df['ly']  #用del删除第ly列  
42.df.T    #转置  
43.df.index.name df.columns.name df.values  
44.df.drop([...])  
45.df + df   df1.add(df2, fill_vaule=0) #算术运算  
46.df -ser   #df与ser的算术运算  
47.f=lambda x: x.max()-x.min()   df.apply(f)  
48.df.sort_index(axis=1, ascending=False)   #按行索引排序  
49.df.sort_index(by=['a','b'])   #按a、b列索引排序  
50.ser.rank()   df.rank(axis=1)  #排序,增设一个排名值  
51.df.sum()   df.sum(axis=1)   #按列、按行求和  
52.df.mean(axis=1, skipna=False)   #求各行的平均值,考虑na的存在  
53.df.idxmax()   #返回最大值的索引  
54.df.cumsum()   #累计求和  
55.df.describe()  ser.describe()   #返回count mean std min max等值  
56.ser.unique()  #去重  
57.ser.value_counts()   df.value_counts()  #返回一个series,其索引为唯一值,值为频率  
58.ser.isin(['x', 'y'])  #判断ser的值是否为x,y,得到布尔值  
59.ser.dropna() ser.isnull() ser.notnull() ser.fillna(0)  #处理缺失数据,df相同  
60.df.unstack()   #行列索引和值互换  df.unstack().stack()  
61.df.swaplevel('key1','key2')   #接受两个级别编号或名称,并互换  
62.df.sortlevel(1) #根据级别1进行排序,df的行、列索引可以有两级  
63.df.set_index(['c','d'], drop=False)    #将c、d两列转换为行,因drop为false,在列中仍保留c,d  
64.read_csv   read_table   read_fwf    #读取文件分隔符为逗号、分隔符为制表符('\t')、无分隔符(固定列宽)  
65.pd.read_csv('...', nrows=5) #读取文件前5行  
66.pd.read_csv('...', chunksize=1000) #按块读取,避免过大的文件占用内存  
67.pd.load() #pd也有load方法,用来读取二进制文件  
68.pd.ExcelFile('...xls').parse('Sheet1')  # 读取excel文件中的sheet1  
69.df.to_csv('...csv', sep='|', index=False, header=False) #将数据写入csv文件,以|为分隔符,默认以,为分隔符, 禁用列、行的标签  
70.pd.merge(df1, df2, on='key', suffixes=('_left', '_right')) #合并两个数据集,类似数据库的inner join, 以二者共有的key列作为键,suffixes将两个key分别命名为key_left、key_right  
71.pd.merge(df1, df2, left_on='lkey', right_on='rkey') #合并,类似数据库的inner join, 但二者没有同样的列名,分别指出,作为合并的参照  
72.pd.merge(df1, df2, how='outer') #合并,但是是outer join;how='left'是笛卡尔积,how='inner'是...;还可以对多个键进行合并  
73.df1.join(df2, on='key', how='outer')  #也是合并  
74.pd.concat([ser1, ser2, ser3], axis=1) #连接三个序列,按行的方向  
75.ser1.combine_first(ser2)   df1.combine_first(df2) #把2合并到1上,并对齐  
76.df.stack() df.unstack()  #列旋转为行、行旋转为列  
77.df.pivot()  
78.df.duplicated()   df.drop_duplicates() #判断是否为重复数据、删除重复数据  
79.df[''].map(lambda x: abs(x)) #将函数映射到df的指定列  
80.ser.replace(-999, np.nan) #将-999全部替换为nan  
81.df.rename(index={}, columns={}, inplace=True) #修改索引,inplace为真表示就地修改数据集  
82.pd.cut(ser, bins)  #根据面元bin判断ser的各个数据属于哪一个区段,有labels、levels属性  
83.df[(np.abs(df)>3).any(1)] #输出含有“超过3或-3的值”的行  
84.permutation  take    #用来进行随机重排序  
85.pd.get_dummies(df['key'], prefix='key')  #给df的所有列索引加前缀key  
86.df[...].str.contains()  df[...].str.findall(pattern, flags=re.IGNORECASE)  df[...].str.match(pattern, flags=...)    df[...].str.get()  #矢量化的字符串函数  
87.  
88.----绘图  
89.ser.plot() df.plot() #pandas的绘图工具,有参数label, ax, style, alpha, kind, logy, use_index, rot, xticks, xlim, grid等,详见page257  
90.kind='kde' #密度图  
91.kind='bar' kind='barh' #垂直柱状图、水平柱状图,stacked=True为堆积图  
92.ser.hist(bins=50) #直方图  
93.plt.scatter(x,y) #绘制x,y组成的散点图  
94.pd.scatter_matrix(df, diagonal='kde', color='k', alpha='0.3')  #将df各列分别组合绘制散点图  
95.  
96.----聚合分组  
97.groupby() 默认在axis=0轴上分组,也可以在1组上分组;可以用for进行分组迭代  
98.df.groupby(df['key1']) #根据key1对df进行分组  
99.df['key2'].groupby(df['key1'])  #根据key1对key2列进行分组  
100.df['key3'].groupby(df['key1'], df['key2'])  #先根据key1、再根据key2对key3列进行分组  
101.df['key2'].groupby(df['key1']).size() #size()返回一个含有分组大小的series  
102.df.groupby(df['key1'])['data1']  等价于 df['data1'].groupby(df['key1'])  
103.df.groupby(df['key1'])[['data1']]  等价于  df[['data1']].groupby(df['key1'])  
104.df.groupby(mapping, axis=1)  ser(mapping) #定义mapping字典,根据字典的分组来进行分组  
105.df.groupby(len) #通过函数来进行分组,如根据len函数  
106.df.groupby(level='...', axis=1)  #根据索引级别来分组  
107.df.groupby([], as_index=False)   #禁用索引,返回无索引形式的数据  
108.df.groupby(...).agg(['mean', 'std'])   #一次使用多个聚合函数时,用agg方法  
109.df.groupby(...).transform(np.mean)   #transform()可以将其内的函数用于各个分组  
110.df.groupby().apply()  #apply方法会将待处理的对象拆分成多个片段,然后对各片段调用传入的函数,最后尝试将各片段组合到一起  
111.  
112.----透视交叉  
113.df.pivot_table(['',''], rows=['',''], cols='', margins=True)  #margins为真时会加一列all  
114.pd.crosstab(df.col1, df.col2, margins=True) #margins作用同上  
115.  
116.  
117.---------------matplotlib---------------  
118.fig=plt.figure() #图像所在的基对象  
119.ax=fig.add_subplot(2,2,1)  #2*2的图像,当前选中第1个  
120.fig, axes = plt.subplots(nrows, nclos, sharex, sharey)  #创建图像,指定行、列、共享x轴刻度、共享y轴刻度  
121.plt.subplots_adjust(left=None, bottom=None, right=None, top=None, wspace=None, hspace=None)  
122.#调整subplot之间的距离,wspace、hspace用来控制宽度、高度百分比  
123.ax.plot(x, y, linestyle='--', color='g')   #依据x,y坐标画图,设置线型、颜色  
124.ax.set_xticks([...]) ax.set_xticklabels([...]) #设置x轴刻度  
125.ax.set_xlabel('...') #设置x轴名称  
126.ax.set_title('....') #设置图名  
127.ax.legend(loc='best') #设置图例, loc指定将图例放在合适的位置  
128.ax.text(x,y, 'hello', family='monospace', fontsize=10) #将注释hello放在x,y处,字体大小为10  
129.ax.add_patch() #在图中添加块  
130.plt.savefig('...png', dpi=400, bbox_inches='tight') #保存图片,dpi为分辨率,bbox=tight表示将裁减空白部分  
131.  
132.  
133.  
134.  
135.------------------------------------------  
136.from mpl_toolkits.basemap import Basemap  
137.import matplotlib.pyplot as plt  
138.#可以用来绘制地图  
139.  
140.  
141.-----------------时间序列--------------------------  
142.pd.to_datetime(datestrs)    #将字符串型日期解析为日期格式  
143.pd.date_range('1/1/2000', periods=1000)    #生成时间序列  
144.ts.resample('D', how='mean')   #采样,将时间序列转换成以每天为固定频率的, 并计算均值;how='ohlc'是股票四个指数;  
145.#重采样会聚合,即将短频率(日)变成长频率(月),对应的值叠加;  
146.#升采样会插值,即将长频率变为短频率,中间产生新值  
147.ts.shift(2, freq='D')   ts.shift(-2, freq='D') #后移、前移2天  
148.now+Day() now+MonthEnd()  
149.import pytz   pytz.timezone('US/Eastern')   #时区操作,需要安装pytz  
150.pd.Period('2010', freq='A-DEC')   #period表示时间区间,叫做时期  
151.pd.PeriodIndex    #时期索引  
152.ts.to_period('M')   #时间转换为时期  
153.pd.rolling_mean(...)    pd.rolling_std(...)   #移动窗口函数-平均值、标准差  

猜你喜欢

转载自blog.csdn.net/Jasminexjf/article/details/80200951
今日推荐