Python 实战:数据归一化 4 种核心方法对比 + 代码实现(机器学习必看)

张开发
2026/4/14 17:05:49 15 分钟阅读

分享文章

Python 实战:数据归一化 4 种核心方法对比 + 代码实现(机器学习必看)
在机器学习、深度学习的数据预处理中数据归一化是绕不开的关键步骤。不同特征往往量纲不同比如年龄 18-60、收入 1000-100000直接训练模型会导致梯度下降收敛慢、难以最优解距离类算法KNN、K-Means、SVM精度暴跌神经网络权重更新失衡本文整理Python 中最常用的 4 种数据归一化 / 标准化方法从原理、适用场景、代码实现、优缺点全方位对比新手也能直接套用一、核心概念区分归一化 vs 标准化先理清两个易混淆的概念避免用错方法归一化Normalization将数据压缩到 **[0,1]或[-1,1]** 区间消除量纲影响标准化Standardization将数据转换为均值为 0方差为 1的标准正态分布不严格限制区间。两者核心区别归一化依赖数据最大 / 最小值对异常值敏感标准化依赖数据均值 / 标准差对异常值鲁棒性更强。二、4 种常用归一化 / 标准化方法详解本文使用numpy手动实现 sklearn封装调用两种方式兼顾原理理解和工程落地。测试数据准备先创建一组包含异常值的测试数据方便对比效果python运行import numpy as np import pandas as pd from sklearn.preprocessing import MinMaxScaler, StandardScaler, MaxAbsScaler, RobustScaler # 生成测试数据包含异常值1000 data np.array([[10, 200, 30], [20, 300, 40], [30, 400, 50], [40, 500, 60], [50, 1000, 70]]) # 第二列最后一个值为异常值 df pd.DataFrame(data, columns[特征1, 特征2, 特征3]) print(原始数据) print(df)方法 1最小 - 最大归一化Min-Max Scaling→ [0,1]原理最基础的线性归一化方法公式Xnorm​Xmax​−Xmin​X−Xmin​​代码实现python运行# 1. 手动实现 def min_max_scaler(x): return (x - np.min(x)) / (np.max(x) - np.min(x)) data_minmax min_max_scaler(data) # 2. sklearn封装推荐工程使用 scaler_minmax MinMaxScaler() data_minmax_sk scaler_minmax.fit_transform(data) print(\nMin-Max归一化([0,1])) print(pd.DataFrame(data_minmax_sk, columnsdf.columns))核心特点✅ 优点简单直观适合数据分布均匀、无明显异常值的场景❌ 缺点对异常值极其敏感最大值会被异常值拉高导致大部分数据被压缩 适用场景图像处理、固定范围的数值特征、神经网络输入层。方法 2绝对值最大归一化Max-Abs Scaling→ [-1,1]原理基于数据绝对值的最大值缩放适合数据包含正负值的场景公式Xnorm​∣Xmax​∣X​代码实现python运行# sklearn实现 scaler_maxabs MaxAbsScaler() data_maxabs scaler_maxabs.fit_transform(data) print(\nMax-Abs归一化([-1,1])) print(pd.DataFrame(data_maxabs, columnsdf.columns))核心特点✅ 优点不破坏稀疏数据结构计算高效❌ 缺点同样对异常值敏感 适用场景稀疏矩阵、文本分类、数据已中心化的场景。方法 3Z-Score 标准化Standard Scaling→ 均值 0 方差 1原理最常用的标准化方法将数据转换为标准正态分布公式Xstd​σX−μ​μ均值σ标准差代码实现python运行# 1. 手动实现 def standard_scaler(x): return (x - np.mean(x)) / np.std(x) data_standard standard_scaler(data) # 2. sklearn实现机器学习首选 scaler_std StandardScaler() data_std_sk scaler_std.fit_transform(data) print(\nZ-Score标准化(均值0,方差1)) print(pd.DataFrame(data_std_sk, columnsdf.columns))核心特点✅ 优点对异常值鲁棒性强不依赖极值适合大部分机器学习算法✅ 适用算法逻辑回归、SVM、线性回归、PCA、神经网络❌ 缺点数据会偏离原始区间不适合需要固定范围的场景 适用场景绝大多数机器学习模型默认首选。方法 4鲁棒归一化Robust Scaling→ 抗异常值神器原理针对包含大量异常值的数据设计使用中位数Q2和四分位数Q1/Q3替代均值和极值公式Xrobust​Q3−Q1X−Q2​代码实现python运行# sklearn实现 scaler_robust RobustScaler() data_robust scaler_robust.fit_transform(data) print(\nRobust鲁棒归一化(抗异常值)) print(pd.DataFrame(data_robust, columnsdf.columns))核心特点✅ 优点完全不受异常值影响是异常值数据的最优解✅ 优点保留数据的离散程度鲁棒性拉满❌ 缺点计算稍复杂依赖四分位数 适用场景数据包含异常值、数据分布倾斜非正态、实际业务数据。三、4 种方法全方位对比表表格方法公式核心输出区间对异常值敏感性适用场景推荐算法Min-Max最值缩放[0,1]极高无异常值、均匀分布神经网络、图像处理Max-Abs绝对值缩放[-1,1]高稀疏矩阵、正负数据文本分类、稀疏特征Z-Score均值标准差无固定区间低正态分布、通用场景90% 机器学习模型Robust四分位数缩放无固定区间极低含异常值、倾斜分布实际业务数据、KNN、K-Means四、关键结论怎么选新手直接抄作业数据无异常值、需要固定范围→ 选Min-Max 归一化数据是稀疏矩阵、包含正负值→ 选Max-Abs 归一化通用机器学习、数据正态分布→ 选Z-Score 标准化默认首选数据有异常值、实际业务数据→ 选Robust 鲁棒归一化。五、避坑指南工程必备先拆分训练集 / 测试集再归一化绝对不能用测试集的极值 / 均值做归一化会导致数据泄露模型上线必崩python运行# 正确写法 from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test train_test_split(data, [0,1,0,1,0], test_size0.2) scaler StandardScaler() X_train_std scaler.fit_transform(X_train) # 仅用训练集拟合 X_test_std scaler.transform(X_test) # 测试集直接用训练集的参数树模型不需要归一化决策树、随机森林、XGBoost 等基于规则的模型对量纲不敏感无需归一化。归一化不改变数据分布只是缩放数据不会把非正态分布转为正态分布。总结数据归一化没有绝对的「最优解」只有最适合数据场景的方法新手入门优先用Z-Score 标准化适配绝大多数模型实际业务数据必选Robust 归一化解决异常值痛点固定范围需求用Min-Max稀疏数据用Max-Abs。本文从原理到代码、从场景到避坑全覆盖建议收藏备用下次做数据预处理直接对照选择即可。

更多文章