pandas实现数据合并的示例代码

目录
  • 一、 concat--数据合并
    • 1.1 概述
    • 1.2 指定合并的轴方向--axis
    • 1.3 指定合并轴另外一个轴标签是否合并--join
    • 1.4 指定合并轴原标签是否需要变化--ignore_index
    • 1.5 指定合并轴方向新的index,便于区分数据--keys
    • 1.6 指定合并轴方向新的index 的含义名称,一般和keys一起使用,让合并后的数据更直观--names
    • 1.7 指定合并时是否允许合并轴上有重复标签--verify_integrity
  • 二、 merge--数据连接
    • 2.1 概述
    • 2.2 指定键值列进行连表--on参数
    • 2.3 指定数据连接方式--how参数
    • 2.4 设置使用行索引作为连接key--left_index及right_index参数
    • 2.5 设置有相同列时自动加后缀--suffixes
  • 三、 join
    • 3.1 概述
    • 3.2 行索引连接--无重复列标签
    • 3.3 行索引连接--有重复列标签
    • 3.4 列标签链接--列标签不相同,但内容有相同
    • 3.5 列标签链接--列标签有相同,内容有相同
    • 3.6 列标签链接--列标签和列内容均不相同
    • 3.7 join和merge主要异同
  • 四、 append
  • 五、 assign

在pandas 基础操作大全之数据读取&清洗&分析中介绍了pandas常见的数据处理操作,现在继续对pandas常用的数据合并操作做下介绍,便于大家快速了解,也方便后续需要时快速查询。

一、 concat--数据合并

1.1 概述

#pandas 的 concat函数表达式如下
pd.concat(
    [df1, df2, df3],  #指定需合并的两个或多个Dataframe,各个df的shape可以不同
    axis = 0, #指定合并时,合并的轴方向,默认为0,即行合并,多个df会在纵向进行拼接合并
    join = 'outer', #指定在合并轴方向的另外一个轴方向,标签如何合并,outer指取并集,inner指取交集
    ignore_index = False, #指定是否保留原各个df在合并轴方向上的原有标签,默认False,即保留
    keys = ['a','b','c'], #为合并后的数据,在合并轴方向上指定新的index,便于区分各个合并数据源
    names = ['groupA','groupB'], #为
    verify_integrity = False, #指定是否允许在指定的合并轴方向上,允许存在重复的标签,默认值为False,即允许,当指定为True时,如果有重复,在合并的时候会报错
)

1.2 指定合并的轴方向--axis

#一般情况下,基本是在行方向将多个DataFrame进行连接合并,组成一个新的DataFrame,便于统一进行处理
#常见的应用场景,比如多个DataFrame可能有部分相同的列,希望连在一起,分析其规律
#df1数据源如下:
    A            B            C
0    0.214326    0.818321    -0.055211
1    -0.941666    2.396083    2.173411
#df2数据源如下:
    A            B
0    0.397919    -0.350948
1    0.147547    -0.172974
pd.concat([df1 , df2], axis=0)  #运算结果如下
    A            B            C
0    -0.663727    1.883112    -0.409361
1    0.874930    -0.120000    0.015474
0    0.380397    -1.088665    NaN
1    -1.623468    0.610855    NaN

pd.concat([df1 , df2], axis=1) #运算结果如下
    A            B            C            A            B
0    -0.663727    1.883112    -0.409361    0.380397    -1.088665
1    0.874930    -0.120000    0.015474    -1.623468    0.610855

1.3 指定合并轴另外一个轴标签是否合并--join

#一般直接使用join的默认值,即outer,取并集,此时不会丢弃多个DataFrame的任何列信息
#当然,如果想合并时,最后只留下多个DataFrame相同的列或行标签,则使用inner取交集
#df1数据源如下:
    A            B            C
0    0.214326    0.818321    -0.055211
1    -0.941666    2.396083    2.173411
#df2数据源如下:
    A            B
0    0.397919    -0.350948
1    0.147547    -0.172974
pd.concat([df1 , df2], join = 'outer')  #运算结果如下
    A            B            C
0    -0.663727    1.883112    -0.409361
1    0.874930    -0.120000    0.015474
0    0.380397    -1.088665    NaN
1    -1.623468    0.610855    NaN

pd.concat([df1 , df2], join = 'inner')  #运算结果如下
    A            B
0    -0.663727    1.883112
1    0.874930    -0.120000
0    0.380397    -1.088665
1    -1.623468    0.610855

1.4 指定合并轴原标签是否需要变化--ignore_index

#该参数在希望对行进行遍历处理时,会比较有用,因为可以设置忽略合并轴方向之前的index或标签,重新进行生成,就像是一个全新的DataFrame一样
#df2数据源如下:
    A            B            C
0    0.214326    0.818321    -0.055211
1    -0.941666    2.396083    2.173411
#df2数据源如下:
    A            B
0    0.397919    -0.350948
1    0.147547    -0.172974

pd.concat([df1,df2],ignore_index=True) #运算结果如下
    A            B            C
0    -0.663727    1.883112    -0.409361
1    0.874930    -0.120000    0.015474
2    0.380397    -1.088665    NaN
3    -1.623468    0.610855    NaN

pd.concat([df1,df2],ignore_index=False) #运算结果如下
    A            B            C
0    -0.663727    1.883112    -0.409361
1    0.874930    -0.120000    0.015474
0    0.380397    -1.088665    NaN
1    -1.623468    0.610855    NaN

1.5 指定合并轴方向新的index,便于区分数据--keys

该参数类似于分组的效果

#该参数类似分组的效果,即沿着合并轴方向,按照合并的数据源,进行分组,便于区分合并数据来源
#df1数据源如下:
    A            B            C
0    0.214326    0.818321    -0.055211
1    -0.941666    2.396083    2.173411
#df2数据源如下:
    A            B
0    0.397919    -0.350948
1    0.147547    -0.172974

pd.concat([df1,df2],keys=['a','b'])  #运算结果如下
        A            B            C
a    0    -0.663727    1.883112    -0.409361
    1    0.874930    -0.120000    0.015474
b    0    0.380397    -1.088665    NaN
    1    -1.623468    0.610855    NaN

1.6 指定合并轴方向新的index 的含义名称,一般和keys一起使用,让合并后的数据更直观--names

#该参数一般与keys一起使用,比如df1和df2是两个季度前两个月的数据,然后使用concat,将两个季度的合并成一个DataFrame,并且用keys指定每个季度的名称,再用names指定对应的含义
#df1数据源如下:
    A            B            C
0    0.214326    0.818321    -0.055211
1    -0.941666    2.396083    2.173411
#df2数据源如下:
    A            B
0    0.397919    -0.350948
1    0.147547    -0.172974

pd.concat([df1,df2],keys=['第一季度','第二季度'],names = ['季度', '月份']) #运行结果如下
                A            B            C
季度        月份
第一季度    0        -0.663727    1.883112    -0.409361
        1        0.874930    -0.120000    0.015474
第二季度    0        0.380397    -1.088665    NaN
        1        -1.623468    0.610855    NaN

1.7 指定合并时是否允许合并轴上有重复标签--verify_integrity

#该参数只有在需要合并的数据,严格使用index或者列标签来区分数据的唯一性时,设置为True,才有意义
#否则,一般不设置就行,即默认False,此时合并时不会严格要求合并时index或列标签必须不同
#df1数据源如下:
    A            B            C
0    0.214326    0.818321    -0.055211
1    -0.941666    2.396083    2.173411
#df2数据源如下:
    A            B
0    0.397919    -0.350948
1    0.147547    -0.172974

pd.concat([df1,df2],verify_integrity=True,axis=1)  #报错,因df1和df2均有A、B列标签
pd.concat([df1,df2],verify_integrity=True,axis=0)  #报错,因为df1和df2均有0、1的index

二、 merge--数据连接

merge类似SQL中的连表操作,即通过两个DataFrame共有的列,作为key,将表在横向连接起来,主要用于拓展数据信息,比如多个DataFrame,均只记录了自己关心的完整数据的一部分,希望通过某一共同列,连表,最终形成较为完成的数据信息,是一种非常有用的连接方式

2.1 概述

#merge函数基本表达式如下
pd.merge(
    df1,df2, #指定需要连接的两个DataFrame
    on='A', #指定连接时,以哪个列标签为准,进行连接,一般指定的列标签需要在两个df中均存在
    how='outer', #指定数据如何连接,有outer、inner、right、left四种取值

    left_on='A', #如果连接的两个df没有相同的列标签,可以分别指定不同的标签,用指定的两个标签来进行连接,此时需要left_on和right_on 均进行指定
    right_on='B',

    left_index=True, #可设置以行index的值连接两个DataFrame,一般比较少用
    right_index=True,

    suffixes=('_df1','_df2') #设置如果两个DataFrame有除了指定的on列,还有其他相同列标签时,为进行区分,在各自列后面添加后缀,默认是=('_x','_y')
)

2.2 指定键值列进行连表--on参数

#left_on及right_on用法
#一般用在可能希望作为连接key的列标签一样时
#df1数据源为
    姓名        年龄
0    张三        28
1    李四        31
#df2数据源为
    姓名        性别        职业
0    张三        男        IT
1    李四        女        运营

pd.merge(df1 ,df2, on='姓名') #运算结果如下
    姓名        年龄        性别        职业
0    张三        28        男        IT
1    李四        31        女        运营
#以上等同于pd.merge(df1,df2),或者df1.merge(df2)

#left_on及right_on用法
#一般用在可能希望作为连接key的列标签不一样时,使用
#df1数据源为
    姓名        性别        职业
0    张三        男        IT
1    李四        女        运营
#df2数据源为
    员工姓名    婚姻状况    学历
0    张三        未婚        本科
1    李四        已婚        研究生
pd.merge(df1, df2, left_on='姓名', right_on='员工姓名') #运算结果如下
    姓名        性别        职业        员工姓名        婚姻状况        学历
0    张三        男        IT        张三            未婚            本科
1    李四        女        运营        李四    已        婚            研究生

2.3 指定数据连接方式--how参数

#how参数决定了将如何用on指定的key对两个DataFrame进行连接,主要是比对on指定的两个df的列标签,
#如果取并集,则是outer,即连接后的Df会包含两个df所有的key值;如果取交集,则是inner,即连接后的df只会包含两个df均有的key值
#如果需要保证左边df的key值必须有,右边的不一定,则是left;如果需要保证右边df的key值必须有,左边的不一定,则是right
#df1数据源如下
    姓名        性别        职业
0    张三        男        IT
1    李四        女        运营
#df2数据源如下
    姓名        婚姻状况        学历
0    张三        未婚            本科
1    李四        已婚            研究生
2    王五        未婚            博士
3    麻子        已婚            研究生
pd.merge(df1 , df2, how='outer') #运算结果如下
    姓名        性别        职业        婚姻状况        学历
0    张三        男        IT        未婚            本科
1    李四        女        运营        已婚            研究生
2    王五        NaN        NaN        未婚            博士
3    麻子        NaN        NaN        已婚            研究生

pd.merge(df1, df2, how='inner') #运算结果如下
    姓名        性别        职业        婚姻状况        学历
0    张三        男        IT        未婚        本科
1    李四        女        运营        已婚        研究生
pd.merge(df1, df2, how='left') #运算结果如下
    姓名        性别        职业        婚姻状况        学历
0    张三        男        IT        未婚            本科
1    李四        女        运营        已婚            研究生
pd.merge(df1, df2, how='right') #运算结果如下
    姓名        性别        职业        婚姻状况        学历
0    张三        男        IT        未婚            本科
1    李四        女        运营        已婚            研究生
2    王五        NaN        NaN        未婚            博士
3    麻子        NaN        NaN        已婚            研究生

2.4 设置使用行索引作为连接key--left_index及right_index参数

#merge一般用于key为列标签时,对两个df进行链接,类似SQL中的连表操作,不过如果需要,也可以使用行的index作为key进行连表
#left_index、right_index,类似于left_on和right_on,这四个可以left和right两两结合,比如df1的index其实就是df2的列的key,此时便可以使用left_index=True,right_on='B',或者直接对两个df用index进行连表
#df1数据源如下
    姓名        性别        职业
0    张三        男        IT
1    李四        女        运营
#df2数据源如下
    姓名        婚姻状况        学历
0    张三        未婚            本科
1    李四        已婚            研究生
2    王五        未婚            博士
3    麻子        已婚            研究生
pd.merge(df1, df2, left_index=True, right_index=True #运算结果如下
    姓名_x    性别        职业        姓名_y    婚姻状况        学历
0    张三        男        IT        张三        未婚            本科
1    李四        女        运营        李四        已婚            研究生

2.5 设置有相同列时自动加后缀--suffixes

#如果连接的两个df,除了key列,或者on指定的列外,还有相同的列标签,为了进行区分,pd会自动在相同的列标签分别添加后缀,默认是x、y,也可通过suffixes显示指定
#df1数据源
    姓名        性别        职业
0    张三        男        IT
1    李四        女        运营
#df2数据源
    姓名        职业        婚姻状况        学历
0    张三        IT        未婚            本科
1    李四        运营        已婚            研究生
2    王五        产品        未婚            博士
3    麻子        市场        已婚            研究生
pd.merge(df1, df2, on='姓名',how='outer',suffixes=('_表1','_表2')) #运算结果如下
    姓名        性别        职业_表1        职业_表2        婚姻状况        学历
0    张三        男        IT            IT            未婚            本科
1    李四        女        运营            运营            已婚            研究生
2    王五        NaN        NaN            产品            未婚            博士
3    麻子        NaN        NaN            市场            已婚            研究生

三、 join

join整体功能与merge类似,也与SQL中的join语法功能和表现完全一样,只不过join可以高效的连接多个DataFrame,而merge只能连接两个,相当于join的快捷方式,join连接时默认使用行index进行连接,但也可以指定类似merge使用列标签连表。

3.1 概述

#join函数的使用方法如下
DataFrame.join(
    other,  #指定需要连接的其他df,如果是一个,则直接写df,如果是多个,则可以是多个df组成的列表或元组,如果是多个,则不支持设置on、lsuffix以及sort
    on=None,  #默认以行index连接,也可以指定列标签,如果需要指定多个列,则可以是列表或元组形式
    how='left', #连接的方式,枚举为 left、right、outer、inner,默认是left
    lsuffix=' ', #左df重复列的后缀,只对连接2个df有效,连接多个df如果列标签有重复,则会报错
    rsuffix=' ', #右df重复列的后缀,只对连接2个df有效,连接多个df如果列标签有重复,则会报错
    sort=False #排序,按照字典顺序对结果在连接键上排序。如果为False,连接键的顺序取决于连接类型(关键字)
)

3.2 行索引连接--无重复列标签

#默认join以行索引index连接,如果多个df没有重复的列标签,则可以直接进行连接,无需设置其他参数
#此时,也可以一次性连接多个df,
#df1数据源
    姓名        性别
0    张三        男
1    李四        女
#df2数据源
    职业        婚姻状况
0    IT        未婚
1    运营        已婚
df1.join(df2) #运算结果如下
    姓名        性别        职业        婚姻状况
0    张三        男        IT        未婚
1    李四        女        运营        已婚

3.3 行索引连接--有重复列标签

#当有重复列标签时,必须设置lsuffix和rsuffix参数,否则就会报错
#df1数据源
    姓名        性别
0    张三        男
1    李四        女
#df2数据源
    姓名        职业        婚姻状况
0    张三        IT        未婚
1    李四        运营        已婚
df1.join(df2, lsuffix='_a', rsuffix='_b') #运算结果如下
    姓名_a    性别        姓名_b    职业        婚姻状况
0    张三        男        张三        IT        未婚
1    李四        女        李四        运营        已婚

3.4 列标签链接--列标签不相同,但内容有相同

#类似merge,如果想链接的两个df,可能列标签没有相同,但是某列标签内容有相同,希望用该列作为Key进行连表,则可以分别设置左右on的key
#df1数据源
    姓名        性别
0    张三        男
1    李四        女
#df2数据源
    员工姓名        职业        婚姻状况
0    张三        IT        未婚
1    李四        运营        已婚
2    王五        运营        已婚
df1.join(df2.set_index('员工姓名'),on='姓名') #运算结果如下
    姓名        性别        职业        婚姻状况
0    张三        男        IT        未婚
1    李四        女        运营        已婚

3.5 列标签链接--列标签有相同,内容有相同

#以列标签连表,就类似merge默认的用法,如果除了on指定的列标签,两个df还有其他相同的列标签,则lsuffix和rsuffix必须设置,否则会报错
#df1数据源
    姓名        性别
0    张三        男
1    李四        女
#df2数据源
    姓名        职业        婚姻状况
0    张三        IT        未婚
1    李四        运营        已婚
2    王五        运营        已婚
df1.join(df2.set_index('姓名'),on='姓名') #运算结果如下
    姓名        性别        职业        婚姻状况
0    张三        男        IT        未婚
1    李四        女        运营        已婚

3.6 列标签链接--列标签和列内容均不相同

此时,无法使用列标签连接两个DataFrame

3.7 join和merge主要异同

相同点:

  • 连接方式的枚举相同,即均可以通过how指定连接方式,有left、right、inner、outer四种方式,效果也一样
  • 在用列标签连接时,均可以通过on设置连接的列标签key
  • 均可以以列标签或行索引进行连表,只不过默认的方式不一样
    • merger默认是列标签连接,可通过设置left_index和right_index为True,切换为按照行索引连表
    • join默认是行索引连表,可通过设置on切换为按照列标签连接

不同点:

  • 默认连接轴方向不同,merge默认按照列标签连接,join默认按照行index连接
  • 可连接DataFrame数量不同,merge只能连接2个,join可一次性连接多个列标签均不相同的DataFrame,如果列标签有相同,则只能连2个

四、 append

该方法主要是对存量的DataFrame添加新的行,或者直接将另外一个DataFrame按0轴(按行)合并到现有的DataFrame上,并且要求两个DataFrame的列数完全相等

该方法在比如需要对多个列数相同的数据进行合并分析时较为有用,不过直接使用pd.concat(df1,df2)也能达到目的,只是append用法可能更为直观些

import pandas as pd
#df1数据源如下
    A            B
0    -0.606787    0.256638
1    -1.333439    -0.335560
#df2数据源如下
    A            B
0    -0.606787    0.256638
1    -1.333439    -0.335560
df1.append(df2)
#运算结果如下:
    A            B
0    0.966491    -0.316075
1    -0.298886    1.016128
0    0.592691    0.478276
1    1.117325    1.294424

#其实以上方法,效果等同于concat的默认行为
pd.concat(df1,df2)

五、 assign

该方法主要是对存量的DataFrame添加新的列,并且要求新增的列,对应的Series长度需与存量数据相同

该方法用的比较少,因为如果想增加新的列,有更快捷的方式,此处只是罗列说明

#df源数据如下
    A            B
0    -0.606787    0.256638
1    -1.333439    -0.335560
df.assign(C=[1,2])
#结果如下:
    A            B            C
0    -0.606787    0.256638    1
1    -1.333439    -0.335560    2

#以上操作等同于如下操作,并且相对来说更加直观
df['C']=[1,2]

到此这篇关于pandas实现数据合并的示例代码的文章就介绍到这了,更多相关pandas 数据合并内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 详解pandas数据合并与重塑(pd.concat篇)

    1 concat concat函数是在pandas底下的方法,可以将数据根据不同的轴作简单的融合 pd.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False, keys=None, levels=None, names=None, verify_integrity=False) 参数说明 objs: series,dataframe或者是panel构成的序列lsit axis: 需要合并链接的轴,0是行,1是列

  • pandas将DataFrame的几列数据合并成为一列

    目录 1.1 方法归纳 1.2 .str.cat函数详解 1.2.1 语法格式: 1.2.2 参数说明: 1.2.3 核心功能: 1.2.4 常见范例: 1.1 方法归纳 使用 + 直接将多列合并为一列(合并列较少): 使用pandas.Series.str.cat方法,将多列合并为一列(合并列较多): 范例如下: dataframe["newColumn"] = dataframe["age"].map(str) + dataframe["phone&q

  • Python基础之pandas数据合并

    一.concat concat函数是在pandas底下的方法,可以将数据根据不同的轴作简单的融合 pd.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False, keys=None, levels=None, names=None, verify_integrity=False) axis: 需要合并链接的轴,0是行,1是列join:连接的方式 inner,或者outer 二.相同字段的表首尾相接 #现将表构成l

  • pandas DataFrame实现几列数据合并成为新的一列方法

    问题描述 我有一个用于模型训练的DataFrame如下图所示: 其中的country.province.city.county四列其实是位置信息的不同层级,应该合成一列用于模型训练 方法: parent_teacher_data['address'] = parent_teacher_data['country']+parent_teacher_data['province']+parent_teacher_data['city']+parent_teacher_data['county'] 就

  • pandas进行数据的交集与并集方式的数据合并方法

    数据合并有多种方式,其中最常见的应该就是交集和并集的求取.之前通过分析总结过pandas数据merge功能默认的行为,其实默认下求取的就是两个数据的"交集". 有如下数据定义: In [26]: df1 Out[26]: data1 key 0 0 b 1 1 b 2 2 a 3 3 c 4 4 a 5 5 a 6 6 b In [27]: df2 Out[27]: data2 key 0 0 a 1 1 b 2 2 d 3 3 b 进行merge的结果: In [28]: pd.me

  • 一文搞懂Python中Pandas数据合并

    目录 1.concat() 主要参数 示例 2.merge() 参数 示例 3.append() 参数 示例 4.join() 示例 数据合并是数据处理过程中的必经环节,pandas作为数据分析的利器,提供了四种常用的数据合并方式,让我们看看如何使用这些方法吧! 1.concat() concat() 可用于两个及多个 DataFrame 间行/列方向进行内联或外联拼接操作,默认对行(沿 y 轴)取并集. 使用方式 pd.concat( objs: Union[Iterable[~FrameOr

  • Python必备技巧之Pandas数据合并函数

    目录 1. concat 2. append 3. merge 4. join 5. combine 总结 1. concat concat是pandas中专门用于数据连接合并的函数,功能非常强大,支持纵向合并和横向合并,默认情况下是纵向合并,具体可以通过参数进行设置. pd.concat( objs: 'Iterable[NDFrame] | Mapping[Hashable, NDFrame]', axis=0, join='outer', ignore_index: 'bool' = Fa

  • 在Pandas中DataFrame数据合并,连接(concat,merge,join)的实例

    最近在工作中,遇到了数据合并.连接的问题,故整理如下,供需要者参考~ 一.concat:沿着一条轴,将多个对象堆叠到一起 concat方法相当于数据库中的全连接(union all),它不仅可以指定连接的方式(outer join或inner join)还可以指定按照某个轴进行连接.与数据库不同的是,它不会去重,但是可以使用drop_duplicates方法达到去重的效果. concat(objs, axis=0, join='outer', join_axes=None, ignore_ind

  • pandas中DataFrame数据合并连接(merge、join、concat)

    pandas作者Wes McKinney 在[PYTHON FOR DATA ANALYSIS]中对pandas的方方面面都有了一个权威简明的入门级的介绍,但在实际使用过程中,我发现书中的内容还只是冰山一角.谈到pandas数据的行更新.表合并等操作,一般用到的方法有concat.join.merge.但这三种方法对于很多新手来说,都不太好分清使用的场合与用途.今天就pandas官网中关于数据合并和重述的章节做个使用方法的总结. 文中代码块主要有pandas官网教程提供. 1 concat co

  • pandas实现数据合并的示例代码

    目录 一. concat--数据合并 1.1 概述 1.2 指定合并的轴方向--axis 1.3 指定合并轴另外一个轴标签是否合并--join 1.4 指定合并轴原标签是否需要变化--ignore_index 1.5 指定合并轴方向新的index,便于区分数据--keys 1.6 指定合并轴方向新的index 的含义名称,一般和keys一起使用,让合并后的数据更直观--names 1.7 指定合并时是否允许合并轴上有重复标签--verify_integrity 二. merge--数据连接 2.

  • pandas实现数据可视化的示例代码

    目录 一.概述 1.1 plot函数参数 1.2 本文用到的数据源说明 二.折线图--kind='line' 三.柱状图--kind='bar' 3.1 各组数据(列)分开展示 3.2 各组(列)数据合并展示--stacked 3.3  横向柱状图--kind='barh' 四.直方图--kind='hist' 4.1 概述 4.2 自定义直方图横向区间数量 4.3 多子图展示多序列数据 4.4 一维数据密度图--kind='kde' 4.5 累积直方图--cumulative = True 五

  • Pandas DataFrame求差集的示例代码

    在Pandas中 求差集没有专门的函数.处理办法就是将两个DataFrame追加合并,然后去重. divident.append(hasThisYearDivident) noHasThisYearDivident = divident.drop_duplicates(subset='ts_code', keep=False, inplace=True, ignore_index=True) 具体函数用法: https://pandas.pydata.org/pandas-docs/stable

  • Python实现交通数据可视化的示例代码

    目录 1.TransBigData简介 2.数据预处理 3.数据栅格化 4.订单起讫点OD提取与聚合集计 5.交互可视化 1.TransBigData简介 TransBigData是一个为交通时空大数据处理.分析和可视化而开发的Python包.TransBigData为处理常见的交通时空大数据(如出租车GPS数据.共享单车数据和公交车GPS数据等)提供了快速而简洁的方法.TransBigData为交通时空大数据分析的各个阶段提供了多种处理方法,代码简洁.高效.灵活.易用,可以用简洁的代码实现复杂

  • springboot前后台数据交互的示例代码

    本文介绍了springboot前后台数据交互的示例代码,分享给大家,具体如下: 1.在路径中传递数据,比如对某个数据的id:123 前台发送:格式大致如下 在路径中传数据 后台接收: 后台接收数据 后台接收结果 2.查询字符串传递数据前台发送:   前台使用Querystring发送数据 后台接收: 这里@RequestParm可以不写,在后台找不到前台对应的字段时,输出null,在@RequestParam中指定的话输出指定的值(前台没给出字段时): 后台接收queryString方式传递的数

  • Java 静态数据初始化的示例代码

    无论创建多少个对象,静态数据都只占用一份存储区域.static关键字不能应用于局部变量,因此它只能作用于域.如果一个域是静态的基本类型域,且也没有对它进行初始化,那么它就会获得基本类型的标准初始值:如果它是一个对象引用,那么它的默认初始值就是null class Bowl { public Bowl(int marker) { System.out.println("Bowl(" + marker + ")"); } void f1(int marker) { Sy

  • django filters实现数据过滤的示例代码

    常用 当前循环. 作用 default 数据为空时设置默认值 length 取变量长度 filesizeformat 文件大小转成可读 slice 从指定位置到指定位切片 date datetime取到的时间,转成指定格式 safe 防止XSS攻击.加上safe才能传标签 truncatechars 取摘显示一段剩下的- 例子 {#格式 值|函数#} {# 如果没有值,那么使用默认值#} <p>{{ bucunzai|default:'空的哦' }}</p> {# 取出变量长度#}

  • SpringBoot整合canal实现数据同步的示例代码

    目录 一.前言 二.docker-compose部署canal 三.canal-admin可视化管理 四.springboot整合canal实现数据同步 五.canal-spring-boot-starter 一.前言 canal:阿里巴巴 MySQL binlog 增量订阅&消费组件https://github.com/alibaba/canal tips: 环境要求和配置参考 https://github.com/alibaba/canal/wiki/AdminGuide 这里额外提下Red

  • Mybatis拦截器实现数据权限的示例代码

    在我们日常开发过程中,通常会涉及到数据权限问题,下面以我们常见的一种场景举例: 一个公司有很多部门,每个人所处的部门和角色也不同,所以数据权限也可能不同,比如超级管理员可以查看某张 表的素有信息,部门领导可以查看该部门下的相关信息,部门普通人员只可以查看个人相关信息,而且由于角色的 不同,各个角色所能查看到的数据库字段也可能不相同,那么此处就涉及到了数据权限相关的问题.那么我们该如 何处理数据权限相关的问题呢?我们提供一种通过Mybatis拦截器实现的方式,下面我们来具体实现一下 pom.xml

  • C#实现PDF页面合并的示例代码

    目录 程序环境 代码示例 1.从两个PDF文档页面实现页面合并 2.在同一个PDF文档实现页面合并 本文以C#及vb.net代码为例介绍如何来实现合并PDF页面内容.本文中的合并并非将两个文档简单合并为一个文档,而是将多个页面内容合并到一个页面,目的是减少页面上的空白区域,使页面布局更为紧凑.合理.下面,将分别从两个示例来展示合并,即: 从两个PDF文档页面实现页面合并 在同一个PDF文档实现页面合并 程序环境 方法1 在程序中引入Spire.Pdf.dll文件:将 Free Spire.PDF

随机推荐