大师兄的数据分析学习笔记(十二):特征预处理(三)

大师兄的数据分析学习笔记(十一):特征预处理(二)
大师兄的数据分析学习笔记(十三):特征预处理(四)

四、特征变换

  • 特征变换就是根据数据特征的特性,进行一定方式的转换,使特征能够发挥出他的特点。
  • 特征变换变化的方式有很多种,常见的方式如下:
1. 对指化
  • 对指化就是对数据进行指数化和对数化的过程。
1.1 指数化
  • 指数化就是将一个数值进行指数变换的过程。
  • 指数的底数一般取自然指数e
  • 从上图中可以看到,自然指数的底数函数中大于零的部分,x轴表示的自变量变化较小,而y轴的变化较大。
  • 也就是说将数据大于零部分的值之间的差距被放大了。
>>>import numpy as np

>>>nums = np.arange(0.1,1, 0.1)
>>>print(nums)
[0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9]
>>>print(np.exp(nums))
[1.10517092 1.22140276 1.34985881 1.4918247  1.64872127 1.8221188
 2.01375271 2.22554093 2.45960311]
1.2 对数化
  • 对数化就是将一个数值进行对数变换的过程。

  • 对数的底通常取自然指数e、10或2。

  • 其操作与指数化基本是相反的,可以将值之间的差距缩小。

>>>import numpy as np

>>>nums = np.arange(100000, 1000000, 100000)
>>>print(nums)
[100000 200000 300000 400000 500000 600000 700000 800000 900000]
>>>print(np.log(nums))
[11.51292546 12.20607265 12.61153775 12.89921983 13.12236338 13.30468493
 13.45883561 13.59236701 13.71015004]
2. 离散化
  • 数据离散化是将连续数据变换成离散数据的操作,一般是将连续变量分成几段。
  • 数据之所以需要被离散化,是基于以下原因:
  1. 为了克服数据本身的缺陷,比如派出连续数据中的噪声,可以离散后用一部分去做比较。
  2. 某些算法的属性必须是离散值,比如朴素贝叶斯算法。
  3. 数据的非线性映射需求,比如连续数据中心明显的拐点或不同的数值区间,可能代表不同的意义。
  • 常用的数据离散化方式包括:等频分箱等距分箱自因变量优化三种方式。
2.1 等身分箱
  • 等身分箱会将数据分成n份,并将每份之内的数据与距离较近的边界对齐。
>>>import numpy as np
>>>import pandas as pd

>>>data = np.random.randint(1,100,20)
>>>print(data)
[60 61 74 29 21 88 39 95 45 61 15 85 21 52 30 21 97 69 48 40]
>>>pprint.pprint(list(pd.qcut(data,q=3)))
[Interval(39.333, 61.0, closed='right'),
 Interval(39.333, 61.0, closed='right'),
 Interval(61.0, 97.0, closed='right'),
 Interval(14.999, 39.333, closed='right'),
 Interval(14.999, 39.333, closed='right'),
 Interval(61.0, 97.0, closed='right'),
 Interval(14.999, 39.333, closed='right'),
 Interval(61.0, 97.0, closed='right'),
 Interval(39.333, 61.0, closed='right'),
 Interval(39.333, 61.0, closed='right'),
 Interval(14.999, 39.333, closed='right'),
 Interval(61.0, 97.0, closed='right'),
 Interval(14.999, 39.333, closed='right'),
 Interval(39.333, 61.0, closed='right'),
 Interval(14.999, 39.333, closed='right'),
 Interval(14.999, 39.333, closed='right'),
 Interval(61.0, 97.0, closed='right'),
 Interval(61.0, 97.0, closed='right'),
 Interval(39.333, 61.0, closed='right'),
 Interval(39.333, 61.0, closed='right')]
>>>print(list(pd.qcut(data,q=3,labels=["l","m","h"])))
['m', 'm', 'h', 'l', 'l', 'h', 'l', 'h', 'm', 'm', 'l', 'h', 'l', 'm', 'l', 'l', 'h', 'h', 'm', 'm']
2.2 等距分箱
  • 等身分箱相似,等距分箱会将距离相近的数据分成n份。
>>>import numpy as np
>>>import pandas as pd

>>>data = np.random.randint(1,100,20)
>>>print(data)
[93 83 60 87 93 46 69 84 97 60 54 57 18 48 79 97 73 64 17 76]
>>>pprint.pprint(list(pd.cut(data,bins=3)))
[Interval(70.333, 97.0, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(16.92, 43.667, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(70.333, 97.0, closed='right'),
 Interval(43.667, 70.333, closed='right'),
 Interval(16.92, 43.667, closed='right'),
 Interval(70.333, 97.0, closed='right')]
>>>print(list(pd.cut(data,bins=3,labels=["l","m","h"])))
['h', 'h', 'm', 'h', 'h', 'm', 'm', 'h', 'h', 'm', 'm', 'm', 'l', 'm', 'h', 'h', 'h', 'm', 'l', 'h']
3. 归一化
  • 归一化实际是将数据转化到0至1之间的范围内。
  • 公式:x' = \frac{x - x_{min}}{x_{max} - x_{min}}
  • 根据公式可以看出,如果是最小值,则映射成0;如果是最大值,则映射成1。
  • 归一化有以下好处:
  1. 可以直接观察单个数据仙姑低于整体情况的比例。
  2. 可以在不同量纲的数据特征之间建立合适的距离度量方法。
>>>import os
>>>import numpy as np
>>>import pandas as pd
>>>from sklearn.preprocessing import MinMaxScaler

>>>df = pd.read_csv(os.path.join(".", "data", "WA_Fn-UseC_-HR-Employee-Attrition.csv"))
>>>age = df.Age
>>>print(MinMaxScaler().fit_transform(np.array(age).reshape(-1,1)))
[[0.54761905]
 [0.73809524]
 [0.45238095]
 ...
 [0.21428571]
 [0.73809524]
 [0.38095238]]
4. 标准化
  • 标准化指的是将数据转换成一个标准的形式。
  • 归一化实际上也是一种标准化
  • 狭义上的标准化,指的是将数据缩放到均值为0,标准差为1的尺度上,即z-score
  • z-score的公式为:x' = \frac{x - \overline{x}}{\delta}
  • z-score可以用来体现数据与该特征下其它数据的相对大小和差距关系。
>>>import os
>>>import numpy as np
>>>import pandas as pd
>>>from sklearn.preprocessing import MinMaxScaler,StandardScaler

>>>df = pd.read_csv(os.path.join(".", "data", "WA_Fn-UseC_-HR-Employee-Attrition.csv"))
>>>age = df.Age
>>>print(StandardScaler().fit_transform(np.array(age).reshape(-1,1)))
[[ 0.4463504 ]
 [ 1.32236521]
 [ 0.008343  ]
 ...
 [-1.08667552]
 [ 1.32236521]
 [-0.32016256]]
5. 数值化
  • 数值化就是把非数值数据转化成数值数据的过程。
  • 从下表可以看出,定类数据定序数据定距数据在进行运算时都有可能需要转换:
定类数据 定序数据 定距数据 定比数据
无大小关系 大小关系不好衡量 大小关系可以衡量,但无零点 大小关系可以衡量,有零点
无法进行加减法运算 无法进行加减法运算 有加减法运算,但无乘除法运算 有加减乘除法运算
  • 其中定距数据可以通过归一化的方式消除物理含义,从而具备乘除的能力。
  • 定类数据定序数据在运算时需要进行数值化。
  • 定序数据的数值化可以采用标签化的方式,也就是直接对数据进行数值标签的转换。
>>>import os
>>>import pandas as pd
>>>from sklearn.preprocessing import LabelEncoder

>>>df = pd.read_csv(os.path.join(".", "data", "WA_Fn-UseC_-HR-Employee-Attrition.csv"))
>>>department = df.Department
>>>print(list(department))
['Sales', 'Research & Development', 'Research & Development', ...,'Research & Development', 'Research & Development']
>>>label = LabelEncoder().fit_transform(department)
>>>print(label)
[2 1 1 ... 1 2 1]
  • 定类数据的数值化需要采用独热编码(One-Hot Encode)的方式,将数据的特征变成矩阵。
>>>import os
>>>import pandas as pd
>>>import numpy as np
>>>from sklearn.preprocessing import LabelEncoder, OneHotEncoder

>>>df = pd.read_csv(os.path.join(".", "data", "WA_Fn-UseC_-HR-Employee-Attrition.csv"))
>>>ef = np.array(df.EducationField).reshape(-1, 1)
>>>encoder = LabelEncoder()
>>>lb_trans = encoder.fit_transform(ef)
>>>oht_encoder = OneHotEncoder().fit(lb_trans.reshape(-1,1))
>>>oht = oht_encoder.transform(encoder.transform(np.array(ef)).reshape(-1, 1))
>>>print(oht.toarray())
[[0. 1. 0. 0. 0. 0.]
 [0. 1. 0. 0. 0. 0.]
 [0. 0. 0. 0. 1. 0.]
 ...
 [0. 1. 0. 0. 0. 0.]
 [0. 0. 0. 1. 0. 0.]
 [0. 0. 0. 1. 0. 0.]]
6. 正规化
  • 正规化就是将一个向量的长度正规到单位1。
  • 如果距离尺度的衡量用L_1距离,公式如下:x' = \frac{x_i}{\sum_{j=1}^n{|x_j|}}
  • 如果距离尺度的衡量用L_2距离,公式如下:x' = \frac{x_i}{\sqrt{\sum_{j=1}^n{|x_j|^2}}}
  • 正规化的用法如下:
  1. 直接用在特征上。
  2. 用在每个对象的各个特征的表示(特征矩阵的行)。
  3. 模型的参数。
>>>import os
>>>import pandas as pd
>>>import numpy as np
>>>from sklearn.preprocessing import Normalizer

>>>df = pd.read_csv(os.path.join(".", "data", "WA_Fn-UseC_-HR-Employee-Attrition.csv"))
>>>es = np.array([df.EnvironmentSatisfaction])
>>>l1 = Normalizer(norm="l1").fit_transform(es)
>>>print(l1)
[[0.00049988 0.00074981 0.00099975 ... 0.00049988 0.00099975 0.00049988]]
>>>l2 = Normalizer(norm="l2").fit_transform(es)
>>>print(l2)
[[0.01778568 0.02667853 0.03557137 ... 0.01778568 0.03557137 0.01778568]]
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容