Python中的相关分析correlation analysis的实现

相关分析(correlation analysis)

研究两个或两个以上随机变量之间相互依存关系的方向和密切程度的方法。
线性相关关系主要采用皮尔逊(Pearson)相关系数r来度量连续变量之间线性相关强度;
r>0,线性正相关;r<0,线性负相关;
r=0,两个变量之间不存在线性关系,并不代表两个变量之间不存在任何关系。

相关分析函数
DataFrame.corr()
Series.corr(other)

函数说明:
如果由数据框调用corr函数,那么将会计算每个列两两之间的相似度
如果由序列调用corr方法,那么只是该序列与传入的序列之间的相关度

返回值:
DataFrame调用;返回DataFrame

Series调用:返回一个数值型,大小为相关度

import numpy
import pandas

data = pandas.read_csv(
  'C:/Users/ZL/Desktop/Python/5.4/data.csv'
)

bins = [
  min(data.年龄)-1, 20, 30, 40, max(data.年龄)+1
]
labels = [
  '20岁以及以下', '21岁到30岁', '31岁到40岁', '41岁以上'
]

data['年龄分层'] = pandas.cut(
  data.年龄,
  bins,
  labels=labels
)

ptResult = data.pivot_table(
  values=['年龄'],
  index=['年龄分层'],
  columns=['性别'],
  aggfunc=[numpy.size]
 File "<ipython-input-1-ae921a24967f>", line 25
  aggfunc=[numpy.size]
            ^
SyntaxError: unexpected EOF while parsing

import numpy
import pandas

data = pandas.read_csv(
  'C:/Users/ZL/Desktop/Python/5.4/data.csv'
)

bins = [
  min(data.年龄)-1, 20, 30, 40, max(data.年龄)+1
]
labels = [
  '20岁以及以下', '21岁到30岁', '31岁到40岁', '41岁以上'
]

data['年龄分层'] = pandas.cut(
  data.年龄,
  bins,
  labels=labels
)

ptResult = data.pivot_table(
  values=['年龄'],
  index=['年龄分层'],
  columns=['性别'],
  aggfunc=[numpy.size]
)

ptResult
Out[4]:
     size
      年龄
性别     女   男
年龄分层
20岁以及以下  111  1950
21岁到30岁 2903 43955
31岁到40岁  735  7994
41岁以上   567  886

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

(0)

相关推荐

  • Python中的相关分析correlation analysis的实现

    相关分析(correlation analysis) 研究两个或两个以上随机变量之间相互依存关系的方向和密切程度的方法. 线性相关关系主要采用皮尔逊(Pearson)相关系数r来度量连续变量之间线性相关强度: r>0,线性正相关:r<0,线性负相关: r=0,两个变量之间不存在线性关系,并不代表两个变量之间不存在任何关系. 相关分析函数 DataFrame.corr() Series.corr(other) 函数说明: 如果由数据框调用corr函数,那么将会计算每个列两两之间的相似度 如果由序

  • Python中使用haystack实现django全文检索搜索引擎功能

    前言 django是python语言的一个web框架,功能强大.配合一些插件可为web网站很方便地添加搜索功能. 搜索引擎使用whoosh,是一个纯python实现的全文搜索引擎,小巧简单. 中文搜索需要进行中文分词,使用jieba. 直接在django项目中使用whoosh需要关注一些基础细节问题,而通过haystack这一搜索框架,可以方便地在django中直接添加搜索功能,无需关注索引建立.搜索解析等细节问题. haystack支持多种搜索引擎,不仅仅是whoosh,使用solr.elas

  • python中ConfigParse模块的用法

    本文实例讲述了python中ConfigParse模块的用法,分享给大家供大家参考.具体方法如下: 写配置一般用ConfigParse.RawConfigParse类 读配置用ConfigParse.ConfigParse类 代码如下: 写配置文件: import ConfigParser import time config = ConfigParser.RawConfigParser() task = {} task["id"] = 1 task["package&quo

  • 在Python中使用K-Means聚类和PCA主成分分析进行图像压缩

    在Python中使用K-Means聚类和PCA主成分分析进行图像压缩 各位读者好,在这片文章中我们尝试使用sklearn库比较k-means聚类算法和主成分分析(PCA)在图像压缩上的实现和结果. 压缩图像的效果通过占用的减少比例以及和原始图像的差异大小来评估. 图像压缩的目的是在保持与原始图像的相似性的同时,使图像占用的空间尽可能地减小,这由图像的差异百分比表示. 图像压缩需要几个Python库,如下所示: # image processing from PIL import Image fr

  • 简单了解Python中的几种函数

    几个特殊的函数(待补充) python是支持多种范型的语言,可以进行所谓函数式编程,其突出体现在有这么几个函数: filter.map.reduce.lambda.yield lambda >>> g = lambda x,y:x+y #x+y,并返回结果 >>> g(3,4) 7 >>> (lambda x:x**2)(4) #返回4的平方 16 lambda函数的使用方法: 在lambda后面直接跟变量 变量后面是冒号 冒号后面是表达式,表达式计算

  • 基于python中的TCP及UDP(详解)

    python中是通过套接字即socket来实现UDP及TCP通信的.有两种套接字面向连接的及无连接的,也就是TCP套接字及UDP套接字. TCP通信模型 创建TCP服务器 伪代码: ss = socket() # 创建服务器套接字 ss.bind() # 套接字与地址绑定 ss.listen() # 监听连接 inf_loop: # 服务器无限循环 cs = ss.accept() # 接受客户端连接 comm_loop: # 通信循环 cs.recv()/cs.send() # 对话(接收/发

  • python中文件变化监控示例(watchdog)

    在python中文件监控主要有两个库,一个是pyinotify ( https://github.com/seb-m/pyinotify/wiki),一个是watchdog(http://pythonhosted.org/watchdog/).pyinotify依赖于Linux平台的inotify,后者则对不同平台的的事件都进行了封装.因为我主要用于Windows平台,所以下面着重介绍watchdog(推荐大家阅读一下watchdog实现源码,有利于深刻的理解其中的原理). watchdog在不

  • python中模块的__all__属性详解

    python模块中的__all__属性,可用于模块导入时限制,如: from module import * 此时被导入模块若定义了__all__属性,则只有__all__内指定的属性.方法.类可被导入. 若没定义,则导入模块内的所有公有属性,方法和类 # kk.py class A(): def __init__(self,name,age): self.name=name self.age=age class B(): def __init__(self,name,id): self.nam

  • python中requests使用代理proxies方法介绍

    学习网络爬虫难免遇到使用代理的情况,下面介绍一下如何使用requests设置代理: 如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求: import requests proxies = { "http": "http://10.10.1.10:3128", "https": "http://10.10.1.10:1080", } requests.get("http://examp

  • python中requests爬去网页内容出现乱码问题解决方法介绍

    最近在学习python爬虫,使用requests的时候遇到了不少的问题,比如说在requests中如何使用cookies进行登录验证,这可以查看这篇文章.这篇博客要解决的问题是如何避免在使用requests的时候出现乱码. import requests res=requests.get("https://www.baidu.com") print res.content 以上就是使用requests进行简单的网页请求数据的方式.但是很容易出现乱码的问题. 我们可以通过在网页上右击查看

随机推荐