数据清洗的四类操作.docx

上传人:lao****ou 文档编号:69866 上传时间:2023-01-27 格式:DOCX 页数:8 大小:21.08KB
下载 相关 举报
数据清洗的四类操作.docx_第1页
第1页 / 共8页
数据清洗的四类操作.docx_第2页
第2页 / 共8页
数据清洗的四类操作.docx_第3页
第3页 / 共8页
数据清洗的四类操作.docx_第4页
第4页 / 共8页
数据清洗的四类操作.docx_第5页
第5页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《数据清洗的四类操作.docx》由会员分享,可在线阅读,更多相关《数据清洗的四类操作.docx(8页珍藏版)》请在第一文库网上搜索。

1、数据清洗的四类操作缺失值清洗、格式内容清洗、逻辑错误清洗和维度相关性检查、缺失值清洗相信大家都听说过这样一句话:废料进、废品出(Garbage in, Garbage out)o如果模型基于错误的、无意义的数据建立,那么这个模型也会出错。因此,如果源数据带有缺失值(NaN),就需要在数据预处理中进行清洗。缺失值是最常见的数据问题,有很多处理缺失值的方法,一般均按照以下四个步骤进行。1.1确定缺失值范围具体代码如下:#检查数据缺失情况def check_missing_data(df):return df.isnull().sum().sort_values(ascending - False)

2、check_missing_data(rawdata)Income1Age1Online Shopper 0Region0dtype: int64对每个字段都计算其缺失值比例后,按照缺失比例和字段重要性,分别制定相应的解决策略,可用图3-6表示。重要性高特征:重要性高,缺失率低应对策略:1)通过计算进行填充2)通过经验或知识进行填充特征:重要性高.缺失率高应对策略:1 )从其他渠道和数据源取数补全2)使用其他字段通i计算司金3 )去除T段,并的果中表明特征:重要性低,缺失率低应对策略:不做处理或简单填充特征:重要性低.缺失率高应对策略:去除该字段缺失率高图3-6缺失值应对策略图3-6看似明确了

3、不同情况的应对策略,但在实际应用中对特征的重要性判断非常复杂,通常需要到模型中去判断。对数据库进行研究并对所需解决的问题进行分析,可确定哪些特征属于重要特征,哪些特征可以省去或者删掉。比如我们很难对每个数据的ID (独特编码)进行补全,在有的情境下这些信息是必要信息,不能够缺失,而在有的情境下却根本不需要这类信息。比如我们有一组网购记录信息,其中包括每个用户在不同时间段的操作。当我们希望对每个用户进行分析的时候,用户名(UserID)就是不可或缺的,那么缺失用户名的数据很可能需要被清除。但如果我们不需要精确到对个人行为进行分析,那么用户名就没那么必要了。所以在缺失值补全的操作前,探索数据和深入

4、了解数据库是必要的。我们必须清楚每个变量所代表的含义,以及分析的问题可能关联的数据。在一个非常复杂的数据库中,在解决某个实际问题时,通常不需要所有的变量参与运算。L2去除不需要的字段本步骤将减少数据维度,剔除一些明显与数据分析任务不匹配的数据,让与任务相关的数据更为突出。注意,最好不要更改原始数据,只是在下一步处理前提取出用于分析的数据。同时这一步需要考虑之前缺失值的情况,保留对于有些缺失值占比不大或者通过其他信息可以进行推断的特征,去除缺失量太多的数据行或列。对于新手,强烈建议在清洗的过程中每做一步都备份一下,或者在小规模数据上试验成功后再处理全量数据,节约时间,也充分留足撤销操作的余地。L

5、3填充缺失内容具体代码如下:testl - rawdata.copy( )#将更改前的数据进行备份testl = testl.head(3)#提取前三行进行测试testl = testl.dropna( )#去除数据中有缺失值的行print(testl)testlnametoyborn0AndyNaNNaN1CindyGun1998-12-252WendyGumNaNtest:L - testl.dropna(axis-0)#去除数据中有缺失值的行nametoyborn1CindyGun1998-12-25testl testl.dropna (axis- * columns * ) 去除数据

6、中有缺失值的列name0 Andy1 Cindy2 Wendytestl = test 1.dropna(how=*all* )#去除数据完全缺失的行testl - testl.dropna(thresh-2)#保留行中至少有两个值的行testl testl. dropna (how=1 any *) #去除数据中含有演失值的行testl = testl. dropna (how= * any *, subset * toy1 ) 去除toy列中含有缺失的行testl.dropna(inplace-True)#在这个变fit名中直接保存结果在实际应用中,第2步和第3步的操作通常协同进行,在判断

7、完维度相关性与重要性后,对想要保留的维度进行填充,最后对数据行进行必要的清洗,以避免可进行填充的有效字段在清洗时被剔除。1)以同一指标的计算结果(均值、中位数、众数等)填充缺失值。代码如下:testl = testtestl.mean() )# 用均值填充缺失值testl testl.fillna(testl.median() )# 用中位数填充缺失值testl = testl.fillna(testl.mode() )# 用众数填充缺失值2)通过找寻带有缺失值的变量与其他数据完整的变量之间的关系进行建模,使用计算结果进行填充(这一方法较为复杂,而且结果质量可能参差不齐,可在后期习得数据建模技

8、巧后进行尝试)。3)以其他变量的计算结果填充缺失值。举个最简单的例子:年龄字段缺失,但是有屏蔽后六位的身份证号信息,那么就可以轻松找出出生年月,算出目前年龄。4)以业务知识或经验推测填充缺失值。1. 4重新取数如果某些变量非常重要同时缺失率高,那就需要和取数人员或业务人员进行沟通,了解是否有其他渠道可以取到相关数据。继续以Income_n_onlineshopping为例介绍,如图3-7所示。Region Age Income Online Shopper0Japan39.095040.0No1Brazil42.063360.0Yfes2USA25.071280.0No3 Brazil53.0

9、73200.0No4 USA36.0NaNYes5 Japan41.069600.0Yes6 BrazilNaN56160.0NoYesNo7Japan 59.0 113760.08 USA 35.099600.0Japan 33.08440.0Yes图3-7查看数据是否存在缺失值统计各列的缺失值情况,结果如图3-8所示。datasetisna()sum()#统计各列缺失值情况Region0Age1Income1Online Shopper 0dtype: int64图3-8统计数据缺失值个数从图3-7可以看出,这10行数据中第4行和第6行的部分值显示为NaN,也就是数据发生缺失。有时数据本身

10、可能并不是在缺失值位置上留空,而是用0对空缺位置进行填充,根据对数据的理解我们也可以分辨出是否需要对0值数据进行统计和转换。由于数值缺失占比较少,我们可以通过计算填补空缺,这里我们采用平均值填充。# 设定填充方式为平均值填充imputer = Simplelmputer(missing_valuessnp.nan, strategy=mean*)# 选取目标列一imputer imputer.fit(rawdata.iloc:,1:3)# 对计算结果进行填充rawdatailoc:,1:3 = imputer.transform(rawdatailoc:r1:3)# 调整数据rawdata.i

11、loc:,1:3 rawdata.iloc(:,1:3.round(0).astype(int)二、格式内容清洗如果数据是由系统日志而来的,那么通常会在格式和内容方面与元数据的描述保持一致。而如果数据是由人工收集或用户填写而来的,则有很大可能会在格式和内容上存在问题。简单来说,格式和内容的问题有以下几类。2.1 时间、日期、数值、全半角等格式不一致这种问题通常与输入端有关,在整合多来源数据时也有可能遇到,将其处理成一致的格式即可。2.2 数据值含有“非法”字符字段中的值通常是有范围的,有些字符不适合出现在某些字段中,比如: 身份证号必须是数字+字母。 中国人姓名只能为汉字(李A、张C这种情况是

12、少数)。 出现在头、尾、中间的空格。解决这类问题时,需要以半自动校验半人工方式来找出可能存在的问题,并去除不合适的字符。2. 3数据值与该字段应有内容不符例如,姓名栏填了性别、身份证号中写了手机号等。这类问题的特殊性在于不能简单地以删除方式来处理,因为有可能是人工填写错误,前端没有校验,或者导入数据时部分或全部存在列没有对齐导致,需要具体识别问题类型O比如后再有针对性地解决。格式内容出错是非常细节的问题,但很多分析失误都是源于此问跨表关联失败,是因为多个空格导致关键字段进行交集运算时认为“刘翔”和“刘 翔”不是一个人;统计值不全,是因为数字里掺个字母在之后求和时发生问题;模型输出失败或效果不好

13、,是因为数据对错列了,把日期和年龄混了等。因此,在进行这一步时,需要仔细检查数据格式和内容,特别是当数据源自用户手工填写且校验机制不完善时。三、逻辑错误清洗这一步工作的目的是去掉一些使用简单逻辑推理就可以直接发现问题的数据,防止由此导致分析结果偏差。逻辑错误清洗主要包含以下几个步骤。3.1去重由于格式不同,原本重复的数据被认为并非重复而没能成功剔除,比如由于空格导致算法认为“刘翔”和“刘 翔”不是一个人,去重失败。由于重名的情况很常见,即使中间空格被去掉后两条数据的值一致,也很难直接决定将第二条数据删除,这时就需要比较其他字段的值。还有由于关键字值输入时发生错误导致原本一致的信息被重复录入,也

14、需要借助其他字段对内容进行查重。比如“ABC银行”与“ABC 行”,单看名字可以看出这两条信息大概率是重复的,但只有对比其他信息才能确保去重的正确性,比如对比两家公司的电话与地址是否完全相同。如果数据不是人工录入的,那么简单去重即可。3. 2去除不合理值如果字段内取值超过合理范围,比如“年龄:180岁;籍贯:火星”,则这种数据要么删掉,要么按缺失值处理。当然最好的做法是在前期收集这种字段的数据时让用户在有限范围内进行选取,以避免此情况出现。可以通过异常值查找去除不合理值。3. 3修正矛盾内容有时我们拥有多个包含相同信息的维度特征,这时就可以进行交叉验证,修复矛盾内容。比如一个隐去后六位的身份证号,100000199701XXXXXX,而年龄字段数据为18,这显然是不合理的,由于身份证号可信度更高,所以我们应该对年龄字段进行修复。更好的做法是通过脱敏的身份证号提取出生年月,直接建立新的出生日期字段并用此年龄字段替换用户手动填写的年龄字段。在真实世界中获取的数据常常会包含错误信息,有的是人为导致,有的是非人为导致,我们可以通过交叉验证及时发现并修复矛盾内容,为后期建模提供更高质量的数据信息。四、维度相关性检查当数据库中有多个变量时,我们需要考虑变量之间的相互联系,而相关性就是用来表示定性变量或定量变量之间关系的。相关性研

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 汇报材料

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服