python 文件读写和数据清洗

目录
  • 一、文件操作
    • 1.1 csv文件读写
    • 1.2 excel文件读写
  • 二、数据清洗
    • 2.1 删除空值
    • 2.2 删除不需要的列
    • 2.3 删除不需要的行
    • 2.4 重置索引
    • 2.5 统计缺失
    • 2.6 排序

一、文件操作

  • pandas内置了10多种数据源读取函数,常见的就是CSV和EXCEL
  • 使用read_csv方法读取,结果为dataframe格式
  • 在读取csv文件时,文件名称尽量是英文
  • 读取csv时,注意编码,常用编码为utf-8、gbk 、gbk2312和gb18030等
  • 使用to_csv方法快速保存

1.1 csv文件读写

#读取文件,以下两种方式:
#使用pandas读入需要处理的表格及sheet页
import pandas as pd
df = pd.read_csv("test.csv",sheet_name='sheet1') #默认是utf-8编码
#或者使用with关键字
with open("test.csv",encoding="utf-8")as df:
    #按行遍历
    for row in df:
        #修正
        row = row.replace('阴性','0').replace('00.','0.')
        ...
        print(row)

#将处理后的结果写入新表
#建议用utf-8编码或者中文gbk编码,默认是utf-8编码,index=False表示不写出行索引
df.to_csv('df_new.csv',encoding='utf-8',index=False) 

1.2 excel文件读写

#读入需要处理的表格及sheet页
df = pd.read_excel('测试.xlsx',sheet_name='test')
df = pd.read_excel(r'测试.xlsx') #默认读入第一个sheet

#将处理后的结果写入新表
df1.to_excel('处理后的数据.xlsx',index=False)

二、数据清洗

2.1 删除空值

# 删除空值行
# 使用索引
df.dropna(axis=0,how='all')#删除全部值为空的行
df_1 = df[df['价格'].notna()] #删除某一列值为空的行
df = df.dropna(axis=0,how='all',subset=['1','2','3','4','5'])# 这5列值均为空,删除整行
df = df.dropna(axis=0,how='any',subset=['1','2','3','4','5'])#这5列值任何出现一个空,即删除整行

2.2 删除不需要的列

# 使用del, 一次只能删除一列,不能一次删除多列
del df['sample_1']  #修改源文件,且一次只能删除一个
del df[['sample_1', 'sample_2']]  #报错

#使用drop,有两种方法:
#使用列名
df = df.drop(['sample_1', 'sample_2'], axis=1) # axis=1 表示删除列
df.drop(['sample_1', 'sample_2'], axis=1, inplace=True) # inplace=True, 直接从内部删除
#使用索引
df.drop(df.columns[[0, 1, 2]], axis=1, inplace=True) # df.columns[ ] #直接使用索引查找列,删除前3列

2.3 删除不需要的行

#使用drop,有两种方法:
#使用行名
df = df.drop(['行名1', '行名2']) # 默认axis=0 表示删除行
df.drop(['行名1', '行名2'], inplace=True) # inplace=True, 直接从内部删除
#使用索引
df.drop(df.index[[1, 3, 5]]) # df.index[ ]直接使用索引查找行,删除1,3,5行
df = df[df.index % 2 == 0]#删除偶数行

2.4 重置索引

#在删除了行列数据后,造成索引混乱,可通过 reset_index重新生成连续索引
df.reset_index()#获得新的index,原来的index变成数据列,保留下来
df.reset_index(drop=True)#不想保留原来的index,使用参数 drop=True,默认 False
df.reset_index(drop=True,inplace=True)#修改源文件
#使用某一列作为索引
df.set_index('column_name').head()

2.5 统计缺失

#每列的缺失数量
df.isnull().sum()
#每列缺失占比
df3.isnull().sum()/df.shape[0]
#每行的缺失数量
df3.isnull().sum(axis=1)
#每行缺失占比
df3.isnull().sum(axis=1)/df.shape[1]

2.6 排序

#按每行缺失值进行降序排序
df3.isnull().sum(axis=1).sort_values(ascending=False)
#按每列缺失率进行降序排序
(df.isnull().sum()/df.isnull().count()).sort_values(ascending=False)

到此这篇关于python 文件读写和数据清洗的文章就介绍到这了,更多相关python数据处理内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • python-yml文件读写与xml文件读写

    目录 一.python-yml文件读写 更新yml的数值 二.python-xml文件读写 寻找 XML 节点 修改 XML 数据 建立 XML 结构 XPath 搜索 XML 排版 一.python-yml文件读写 使用库 :import yaml 安装: pip install pyyaml 示例: 文件config2.yml guard_url : 'https://www.xxxx.com' app : chrome_files : 'C:\Program Files\Google\Ch

  • 详解Python如何利用Pandas与NumPy进行数据清洗

    目录 准备工作 DataFrame 列的删除 DataFrame 索引更改 DataFrame 数据字段整理 str 方法与 NumPy 结合清理列 apply 函数清理整个数据集 DataFrame 跳过行 DataFrame 重命名列 许多数据科学家认为获取和清理数据的初始步骤占工作的 80%,花费大量时间来清理数据集并将它们归结为可以使用的形式. 因此如果你是刚刚踏入这个领域或计划踏入这个领域,重要的是能够处理杂乱的数据,无论数据是否包含缺失值.不一致的格式.格式错误的记录还是无意义的异常

  • 使用Python读写多个sheet文件

    目录 前言 读取文件 前言 怎么样使用Python提高自己的工作效率,今天就给大家分享这个吧.我们经常用pandas读入读写excel文件,经常会遇到一个excel文件里存在多个sheet文件,这个时候,就需要一次性读取多个sheet的数据并做相应的数据分析或数据处理,最后再写入新的excel文件(同样是多个sheet).本文即介绍多个sheet文件的读入及处理数据后写出到新excel文件(多个sheet)的操作过程. 读取文件 该excel文件中有4个sheet(有时候有多少sheet并不知道

  • Python读写JSON文件的操作详解

    目录 JSON JSON 起源 JSON 样例 Python 原生支持 JSON 序列化 JSON 简单的序列化示例 JSON 反序列化 简单的反序列化示例 应用案例 编码和解码 JSON JSON 起源 JSON 全称 JavaScript Object Notation .是处理对象文字语法的 JavaScript 编程语言的一个子集.JSON 早已成为与语言无关的语言,并作为自己的标准存在. JSON 样例 { "data":[ { "id": "1

  • python清洗疫情历史数据的过程详解

    目录 1. 数据获取 2. 使用python读取csv 3.使用pyhon进行数据清洗 4. 将清洗的数据自动导入MySql 在我2020年大三的一个实训的大作业中,我整了一个新冠肺炎疫情的数据采集和可视化分析系统,大致就是先找数据,然后将数据导入hive中,然后使用hive对数据进行清洗,然后将清洗后的数据使用hql导入MySql,之后就是用ssm开发后台数据接口,然后前端使用echarts和表格对数据进行可视化.具体可以查看:https://qkongtao.cn/?p=514.由于那时候主

  • python实现数据清洗(缺失值与异常值处理)

    1. 将本地sql文件写入mysql数据库 本文写入的是python数据库的taob表 source [本地文件] 其中总数据为9616行,列分别为title,link,price,comment 2.使用python链接并读取数据 查看数据概括 #-*- coding:utf-8 -*- #author:M10 import numpy as np import pandas as pd import matplotlib.pylab as plt import mysql.connector

  • 利用Python进行数据清洗的操作指南

    目录 缺失值 异常值 数据不一致 无效数据 重复数据 数据泄漏问题 你一定听说过这句著名的数据科学名言: 在数据科学项目中, 80% 的时间是在做数据处理. 如果你没有听过,那么请记住:数据清洗是数据科学工作流程的基础. 机器学习模型会根据你提供的数据执行,混乱的数据会导致性能下降甚至错误的结果,而干净的数据是良好模型性能的先决条件. 当然干净的数据并不意味着一直都有好的性能,模型的正确选择(剩余 20%)也很重要,但是没有干净的数据,即使是再强大的模型也无法达到预期的水平. 在本文中将列出数据

  • Python 八个数据清洗实例代码详解

    如果你经历过数据清洗的过程,你就会明白我的意思.而这正是撰写这篇文章的目的——让读者更轻松地进行数据清洗工作. 事实上,我在不久前意识到,在进行数据清洗时,有一些数据具有相似的模式.也正是从那时起,我开始整理并编译了一些数据清洗代码,我认为这些代码也适用于其它的常见场景. 由于这些常见的场景涉及到不同类型的数据集,因此本文更加侧重于展示和解释这些代码可以用于完成哪些工作,以便读者更加方便地使用它们. 数据清洗小工具箱 在下面的代码片段中,数据清洗代码被封装在了一些函数中,代码的目的十分直观.你可

  • Python YAML文件的读写操作详解

    目录 YAML格式 YAML文件 YAML操作 读取 存储 示例 转字典 转列表 YAML是一种数据序列化格式,方便人类阅读,且容易和脚本语言交互.常用于配置文件,也用于数据存储或传输. YAML格式 YAML三种基本数据类型: 1.标量:如字符串.整数和浮点数.日期 布尔值:“true”.“True”.“TRUE”.“yes”.“Yes"和"YES”,“false”.“False”.“FALSE”.“no”.“No"和"NO” 空:null.Null.~或不指定值

  • python 读写csv文件方式(创建,追加,覆盖)

    目录 python 读写csv文件 创建 追加 读 附加 批量生成csv文件 下面来一个简单的范例 python 读写csv文件 创建 利用csv包中的writer函数,如果文件不存在,会自动创建,需要注意的是,文件后缀一定要是.csv,这样才会创建csv文件 这里创建好文件,将csv文件的头信息写进了文件. import csv def create_csv():     path = "aa.csv"     with open(path,'wb') as f:         c

随机推荐