动手学数据分析—-task2——-数据清洗及特征处理

本节主要学习内容为:数据清洗及特征处理。数据在收集的过程中,数据收集人员往往只是负责把数据收集起来,对数据内容遗漏,标签错误的问题往往不会注意,所以数据分析人员拿到数据后,通过数据统计、可视化、数据清洗等手段把遗漏、错误、重复等数据问题解决掉,才能进行下一步分析工作。


import numpy as np
import pandas as pd

df = pd.read_csv('./data/train.csv')

动手学数据分析----task2-------数据清洗及特征处理
动手学数据分析----task2-------数据清洗及特征处理

df.isnull().sum()
PassengerId      0
Survived         0
Pclass           0
Name             0
Sex              0
Age            177
SibSp            0
Parch            0
Ticket           0
Fare             0
Cabin          687
Embarked         2
dtype: int64
df[['Age','Cabin','Embarked']].head(3)

动手学数据分析----task2-------数据清洗及特征处理

1.1.2 任务二:对缺失值进行处理

(1)处理缺失值一般有几种思路

(2) 请尝试对Age列的数据的缺失值进行处理

(3) 请尝试使用不同的方法直接对整张表的缺失值进行处理


df[df['Age']==None]=0
df[df['Age'].isnull()] = 0
df[df['Age'] == np.nan] = 0

【思考】检索空缺值用np.nan,None以及.isnull()哪个更好,这是为什么?如果其中某个方式无法找到缺失值,原因又是为什么?
isnull()方法更好,isnull()可以同时识别np.nan和None类型

df.dropna().head(3)
df.fillna(0).head(3)

【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.dropna.html
【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.fillna.html

1.2 重复值观察与处理

1.2.1 查看数据中的重复值


df[df.duplicated()]

动手学数据分析----task2-------数据清洗及特征处理

1.2.2 处理重复值


df = df.drop_duplicates()

动手学数据分析----task2-------数据清洗及特征处理

1.2.3 将前面清洗的数据保存为csv格式

df.to_csv('test_clear.csv')

1.3 特征观察与处理

我们对特征进行一下观察,可以把特征大概分为两大类:
数值型特征:Survived ,Pclass, Age ,SibSp, Parch, Fare,其中Survived, Pclass为离散型数值特征,Age,SibSp, Parch, Fare为连续型数值特征
文本型特征:Name, Sex, Cabin,Embarked, Ticket,其中Sex, Cabin, Embarked, Ticket为类别型文本特征。

数值型特征一般可以直接用于模型的训练,但有时候为了模型的稳定性及鲁棒性会对连续变量进行离散化。文本型特征往往需要转换成数值型特征才能用于建模分析。

1.3.1 对年龄进行分箱(离散化)处理

(1) 分箱操作是什么?

(2) 将连续变量Age平均分箱成5个年龄段,并分别用类别变量12345表示

(3) 将连续变量Age划分为(0,5] (5,15] (15,30] (30,50] (50,80]五个年龄段,并分别用类别变量12345表示

(4) 将连续变量Age按10% 30% 50% 70% 90%五个年龄段,并用分类变量12345表示

(5) 将上面的获得的数据分别进行保存,保存为csv格式


df['AgeBand'] = pd.cut(df['Age'], 5,labels = [1,2,3,4,5])
df.head()

动手学数据分析----task2-------数据清洗及特征处理

df['AgeBand'] = pd.cut(df['Age'],[0,5,15,30,50,80],labels = [1,2,3,4,5])
df.head(3)

动手学数据分析----task2-------数据清洗及特征处理

df['AgeBand'] = pd.qcut(df['Age'],[0,0.1,0.3,0.5,0.7,0.9],labels = [1,2,3,4,5])
df.head()

动手学数据分析----task2-------数据清洗及特征处理

【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.qcut.html
【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.cut.html

1.3.2 对文本变量进行转换

(1) 查看文本变量名及种类
(2) 将文本变量Sex, Cabin ,Embarked用数值变量12345表示
(3) 将文本变量Sex, Cabin, Embarked用one-hot编码表示


df['Sex'].value_counts()
male      453
female    261
0           1
Name: Sex, dtype: int64
df['Cabin'].value_counts()
G6             4
C23 C25 C27    4
B96 B98        4
F33            3
C22 C26        3
              ..

D37            1
C92            1
E58            1
E77            1
B4             1
Name: Cabin, Length: 135, dtype: int64
df['Embarked'].value_counts()
S    554
C    130
Q     28
0      1
Name: Embarked, dtype: int64

df['Sex'].unique()
array(['male', 'female', 0], dtype=object)

df['Sex_num'] = df['Sex'].replace(['male','female'],[1,2])
df.head()

动手学数据分析----task2-------数据清洗及特征处理

df['Sex_num'] = df['Sex'].map({'male': 1, 'female': 2})
df.head()

动手学数据分析----task2-------数据清洗及特征处理

from sklearn.preprocessing import LabelEncoder
for feat in ['Cabin', 'Ticket']:
    lbl = LabelEncoder()
    label_dict = dict(zip(df[feat].unique(), range(df[feat].nunique())))
    df[feat + "_labelEncode"] = df[feat].map(label_dict)
    df[feat + "_labelEncode"] = lbl.fit_transform(df[feat].astype(str))

df.head()

动手学数据分析----task2-------数据清洗及特征处理

for feat in ["Age", "Embarked"]:

    x = pd.get_dummies(df[feat], prefix=feat)
    df = pd.concat([df, x], axis=1)

df.head()

动手学数据分析----task2-------数据清洗及特征处理

1.3.3 从纯文本Name特征里提取出Titles的特征(所谓的Titles就是Mr,Miss,Mrs等)


df['Titles'] = df.Name.str.extract('([A-Za-z]+)\.', expand=False)
df.head()

动手学数据分析----task2-------数据清洗及特征处理

1.4 数据重构

1.4.1 用concat方法将左上和右上两张表合为一张表


import numpy as np
import pandas as pd

df1 = pd.read_csv('./data/train-left-up.csv')
df2 = pd.read_csv('./data/train-right-up.csv')
pd.concat([df1, df2], axis = 1).to_csv('result_up.csv')
result_up = pd.concat([df1, df2], axis = 1)
result_up.head()

动手学数据分析----task2-------数据清洗及特征处理

1.4.2 用concat方法将左下和右下两张表合为一张表,并和result_up和为一张表


import numpy as np
import pandas as pd

df3 = pd.read_csv('./data/train-left-down.csv')
df4 = pd.read_csv('./data/train-right-down.csv')
pd.concat([df3, df4], axis = 1).to_csv('result_down.csv')
result_down = pd.concat([df3, df4], axis = 1)
result = pd.concat([result_up, result_down)]
result.head()

动手学数据分析----task2-------数据清洗及特征处理

1.4.3 使用DataFrame自带方法join和append,来完成上面四张表的合并

result_up = df1.join(df2)
result_down = df3.join(df4)

result = result_up.append(result_down)
result.head()

动手学数据分析----task2-------数据清洗及特征处理
DataFrame.join()
DataFrame.append

1.4.4 使用pandas.merge和DataFrame.append完成上面四张表的合并

df1 = pd.read_csv('./data/train-left-up.csv')
df2 = pd.read_csv('./data/train-right-up.csv')
df3 = pd.read_csv('./data/train-left-down.csv')
df4 = pd.read_csv('./data/train-right-down.csv')
result_up = pd.merge(df1, df2, left_index = True, right_index = True)
result_down = pd.merge(df3, df4, left_index = True, right_index = True)
result = result_up.append(result_down)
result.head()

动手学数据分析----task2-------数据清洗及特征处理
【参考】:pandas.merge

on:列名,join用来对齐的那一列的名字,用到这个参数的时候一定要保证左表和右表用来对齐的那一列都有相同的列名。

left_on:左表对齐的列,可以是列名,也可以是和dataframe同样长度的arrays。

right_on:右表对齐的列,可以是列名,也可以是和dataframe同样长度的arrays。

left_index/ right_index: 如果是True的haunted以index作为对齐的key

how:数据融合的方法。

sort:根据dataframe合并的keys按字典顺序排序,默认是,如果置false可以提高表现。

1.4.5 将数据变成Series类型的数据

unit_result = result.stack().head(20)
uinit_result.head()

动手学数据分析----task2-------数据清洗及特征处理
【参考】:DataFrame.stack
返回一个经过重塑的DataFrame或Series,该DataFrame或Series有一个多级索引,与当前的DataFrame相比有一个或多个新的最内层。新的最内层是通过旋转当前数据帧的列来创建的:
  1. 如果列是单一的,输出是一个Series;
    2)如果列是多层的,则从指定的级别获取新的索引级别,输出是一个DataFrame

Original: https://blog.csdn.net/jackhh1/article/details/118770185
Author: 黄水生
Title: 动手学数据分析—-task2——-数据清洗及特征处理

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/679709/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球