python爬取足球直播吧五大联赛积分榜

本文实例为大家分享了python爬取足球联赛积分榜的具体代码,供大家参考,具体内容如下

使用BeautifulSoup4解析爬取足球直播吧五大联赛积分榜信息;

#! /usr/bin/python3
# -*- coding:utf-8 -*-
from urllib.request import urlopen
from urllib.request import quote
from bs4 import BeautifulSoup
import time
import re
import json
import pymysql 

url="https://data.zhibo8.cc/pc_main_data/#/dejia/index1"
response = urlopen(url)
bs = BeautifulSoup(response,"html.parser") 

# print(bs)
liansai_s = bs.select("ul.data_nav > li") 

# print(liansai_lists) 

# <li ng-class="{current:current==0}" ng-click="selcuptype(0,'NBA')">
#  <a data-index="nba" href="#/team_nba/nba" rel="external nofollow" name="NBA">
#    <div class="data_item" ng-class="{current2:current==0}">NBA</div>
#    <div class="data_item_logo"><img src="images/nba.png"/></div>
#  </a>
# </li> 

liansai_lists = []
for liansai in liansai_s:
  # print(liansai)
  ls = []
  href = liansai.select("a")[0].get("href")
  # print(href)
  lsName = liansai.select("a > div.data_item")[0].text
  ls.append(href)
  ls.append(lsName)
  liansai_lists.append(ls) 

# print(liansai_lists) 

#{
# '排名': '1',
# 'teamId': '565',
# '球队': '巴塞罗那',
# '场次': '29',
# '胜': '23',
# '平': '6',
# '负': '0',
# '进/失球': '74/13',
# '净胜球': '61',
# '积分': '75',
# '球队图标': 'http://duihui.qiumibao.com/zuqiu/basailuona.png',
# '字体颜色': '#e62e2e',
# '夜间字体颜色': '#af2d2d',
# '背景颜色': '#ffffff',
# '球队名称': '巴塞罗那'
# }, 

location = ''
def insert_into_db(lists):
  #将数据写入到数据库中
  con = pymysql.connect(host="localhost", user="root", password="root", database="zhi_bo_ba", charset='utf8', port=3306)
  # 游标。 作用 就等同于 JDBC 中的 Statement
  cursor = con.cursor()
  for record in lists:
    print(record)
    sql_insert = "insert into jifenbang (liansai, paiming, qiudui, changci, sheng,ping,fu,jinqiu_shiqu,jingsheng,jifen) values (%s, %s, %s, %s, %s, %s, %s, %s, %s, %s)"
    cursor.execute(sql_insert, record) 

  con.commit()
  cursor.close()
  con.close() 

def jifenbang(str):
  # print(str)
  datas = urlopen(str)
  #加载json类型的数据
  datas = json.load(datas)
  jifen_list = []
  for info in datas['data']:
    j_f = []
    j_f.append(location)
    j_f.append(info['排名'])
    j_f.append(info['球队'])
    j_f.append(info['场次'])
    j_f.append(info['胜'])
    j_f.append(info['平'])
    j_f.append(info['负'])
    j_f.append(info['进/失球'])
    j_f.append(info['净胜球'])
    j_f.append(info['积分'])
    jifen_list.append(j_f)
  print(jifen_list)
  insert_into_db(jifen_list) 

# https://dc.qiumibao.com/shuju/public/index.php?_url=/data/index&league=联赛&tab=%积分榜&year=[year]
# https://dc.qiumibao.com/shuju/public/index.php?_url=/data/index&league=联赛&tab=球员榜&type=射手榜&year=[year]
urls="https://dc.qiumibao.com/shuju/public/index.php?_url=/data/index&league="
list = ['西甲','英超','意甲','德甲','法甲','中超','中甲']
for aa in liansai_lists: 

  if aa[1] in list:
    location = aa[1]
    new_url = '%s%s&tab=%s&year=[year]' % (urls,quote(aa[1]),quote('积分榜'))
    jifenbang(new_url) 

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

(0)

相关推荐

  • 以视频爬取实例讲解Python爬虫神器Beautiful Soup用法

    1.安装BeautifulSoup4 easy_install安装方式,easy_install需要提前安装 easy_install beautifulsoup4 pip安装方式,pip也需要提前安装.此外PyPi中还有一个名字是 BeautifulSoup 的包,那是 Beautiful Soup3 的发布版本.在这里不建议安装. pip install beautifulsoup4 Debain或ubuntu安装方式 apt-get install Python-bs4 你也可以通过源码安

  • Python实现爬取知乎神回复简单爬虫代码分享

    看知乎的时候发现了一个 "如何正确地吐槽" 收藏夹,里面的一些神回复实在很搞笑,但是一页一页地看又有点麻烦,而且每次都要打开网页,于是想如果全部爬下来到一个文件里面,是不是看起来很爽,并且随时可以看到全部的,于是就开始动手了. 工具 1.Python 2.7 2.BeautifulSoup 分析网页 我们先来看看知乎上该网页的情况 网址:,容易看到,网址是有规律的,page慢慢递增,这样就能够实现全部爬取了. 再来看一下我们要爬取的内容: 我们要爬取两个内容:问题和回答,回答仅限于显示

  • python爬取网站数据保存使用的方法

    编码问题因为涉及到中文,所以必然地涉及到了编码的问题,这一次借这个机会算是彻底搞清楚了.问题要从文字的编码讲起.原本的英文编码只有0~255,刚好是8位1个字节.为了表示各种不同的语言,自然要进行扩充.中文的话有GB系列.可能还听说过Unicode和UTF-8,那么,它们之间是什么关系呢?Unicode是一种编码方案,又称万国码,可见其包含之广.但是具体存储到计算机上,并不用这种编码,可以说它起着一个中间人的作用.你可以再把Unicode编码(encode)为UTF-8,或者GB,再存储到计算机

  • Python 爬取携程所有机票的实例代码

    打开携程网,查询机票,如广州到成都. 这时网址为:http://flights.ctrip.com/booking/CAN-CTU-day-1.html?DDate1=2018-06-15 其中,CAN 表示广州,CTU 表示成都,日期 "2018-06-15"就比较明显了.一般的爬虫,只有替换这几个值,就可以遍历了.但观察发现,有个链接可以看到当前网页的所有json格式的数据.如下 http://flights.ctrip.com/domesticsearch/search/Sear

  • python爬取个性签名的方法

    本文实例为大家分享了python爬取个性签名的具体代码,具体内容如下 #coding:utf-8 #import tkinter from tkinter import * from tkinter import messagebox import requests import re from PIL import Image def download(): start_url = 'http://www.uustv.com/' name = entry.get().encode('utf-8

  • 使用python爬取B站千万级数据

    Python(发音:英[?pa?θ?n],美[?pa?θɑ:n]),是一种面向对象.直译式电脑编程语言,也是一种功能强大的通用型语言,已经具有近二十年的发展历史,成熟且稳定.它包含了一组完善而且容易理解的标准库,能够轻松完成很多常见的任务.它的语法非常简捷和清晰,与其它大多数程序设计语言不一样,它使用缩进来定义语句. Python支持命令式程序设计.面向对象程序设计.函数式编程.面向切面编程.泛型编程多种编程范式.与Scheme.Ruby.Perl.Tcl等动态语言一样,Python具备垃圾回收

  • 通过抓取淘宝评论为例讲解Python爬取ajax动态生成的数据(经典)

    在学习python的时候,一定会遇到网站内容是通过 ajax动态请求.异步刷新生成的json数据 的情况,并且通过python使用之前爬取静态网页内容的方式是不可以实现的,所以这篇文章将要讲述如果在python中爬取ajax动态生成的数据. 至于读取静态网页内容的方式,有兴趣的可以查看本文内容. 这里我们以爬取淘宝评论为例子讲解一下如何去做到的. 这里主要分为了四步: 一 获取淘宝评论时,ajax请求链接(url) 二 获取该ajax请求返回的json数据 三 使用python解析json数据

  • python爬取网页转换为PDF文件

    爬虫的起因 官方文档或手册虽然可以查阅,但是如果变成纸质版的岂不是更容易翻阅与记忆.如果简单的复制粘贴,不知道何时能够完成.于是便开始想着将Android的官方手册爬下来. 全篇的实现思路 分析网页 学会使用BeautifulSoup库 爬取并导出 参考资料: * 把廖雪峰的教程转换为PDF电子书 * Requests文档 * Beautiful Soup文档 配置 在Ubuntu下使用Pycharm运行成功 转PDF需要下载wkhtmltopdf 具体过程 网页分析 如下所示的一个网页,要做的

  • python爬取网页内容转换为PDF文件

    本文实例为大家分享了python爬取网页内容转换为PDF的具体代码,供大家参考,具体内容如下 将廖雪峰的学习教程转换成PDF文件,代码只适合该网站,如果需要其他网站的教程,可靠需要进行稍微的修改. # coding=utf-8 import os import re import time import pdfkit import requests from bs4 import BeautifulSoup from PyPDF2 import PdfFileMerger import sys

  • Python实现的爬取网易动态评论操作示例

    本文实例讲述了Python实现的爬取网易动态评论操作.分享给大家供大家参考,具体如下: 打开网易的一条新闻的源代码后,发现并没有所要得评论内容. 经过学习后发现,源代码只是一个完整页面的"骨架",而我所需要的内容是它的填充物,这时候需要打开工具里面的开发人员工具,从加载的"骨肉"里找到我所要的评论 圈住的是类型 找到之后打开网页,发现json类型的格式,用我已学过的正则,bs都不好闹,于是便去了解了正则,发现把json的格式换化成python的格式后,用列表提取内容

随机推荐