python网络爬虫基于selenium爬取斗鱼直播信息

目录
  • 一、本文使用的第三方包和工具
  • 二、selenium的介绍和浏览器驱动的安装
    • 1.selenium的介绍
    • 2.浏览器驱动的安装
  • 三、代码思路分析
    • 1.解析数据的函数
    • 2.保存数据的函数
  • 3.主函数设计
  • 四、完整代码
  • 总结

一、本文使用的第三方包和工具

python 3.8

谷歌浏览器

selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同

浏览器驱动(和你的浏览器版本对应)

二、selenium的介绍和浏览器驱动的安装

1.selenium的介绍

selenium是一款web自动化测试工具,可以很方便地模拟真实用户对浏览器进行操作,它支持各种主流浏览器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web测试或者爬虫,自动抢票、自动下单也可以用selenium来做。

2.浏览器驱动的安装

网上方法很多,友友们自行搜索,在这里提一点注意事项:本文用的是谷歌浏览器,浏览器驱动要对应谷歌的哦,注意浏览器驱动与你的浏览器版本相对应,这里给出谷歌浏览器驱动的下载地址,友友们按照自己浏览器的版本对应现在即可

http://chromedriver.storage.googleapis.com/index.html

下载完成后注意配置环境变量哦,不配置也行,不配置就要在代码中写上你的Chromedriver.exe文件的路径或者不写路径将你的Chromedriver.exe和py文件放到同一目录下也可以哦

三、代码思路分析

进入斗鱼官网,点到直播,下面的在线直播信息就是我们需要爬取的​

可以看到有标题,类型,姓名,以及热度,我们爬取这四个字段就行

然后滑到底部,这里的下一页是我们控制爬取页数的​

注意:当我们进入页面时,虽然有滚动条,但所有直播信息已经加载好,并不是通过滑动然后Ajax加载的,所以在代码中并不需要写滑动,直接提取就可以拿到整个页面的数据。

1.解析数据的函数

 #解析数据的函数
    def parse(self):
        #强制等待两秒,等待页面数据加载完毕
        sleep(2)
        li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
        #print(len(li_list))
        data_list = []
        for li in li_list:
            dic_data = {}
            dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
            dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
            dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
            dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
            data_list.append(dic_data)
        return data_list

2.保存数据的函数

 #解析数据的函数
    def parse(self):
        #强制等待两秒,等待页面数据加载完毕
        sleep(2)
        li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
        #print(len(li_list))
        data_list = []
        for li in li_list:
            dic_data = {}
            dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
            dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
            dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
            dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
            data_list.append(dic_data)
        return data_list

(1)保存为txt文本

#保存数据的函数
    def save_data(self,data_list,i):
        #在当前目录下将数据存为txt文件
        with open('./douyu.txt','w',encoding='utf-8') as fp:
            for data in data_list:
                data = str(data)
                fp.write(data+'\n')
            print("第%d页保存完成!" % i)

(2)保存为json文件

#保存数据的函数
    def save_data(self,data_list,i):
        with open('./douyu.json','w',encoding='utf-8') as fp:
             #里面有中文,所以注意ensure_ascii=False
             data = json.dumps(data_list,ensure_ascii=False)
             fp.write(data)
             print("第%d页保存完成!" % i)

3.主函数设计

#主函数
    def run(self):
        #输入要爬取的页数,如果输入负整数,转化成她的绝对值
        page_num = abs(int(input("请输入你要爬取的页数:")))
        #初始化页数为1
        i = 1
        #判断输入的数是否为整数
        if isinstance(page_num,int):
            #实例化浏览器对象
            self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
            # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
            self.bro.get(self.url)
            while i <= page_num:
                #调用解析函数
                data_list = self.parse()
                #调用保存函数
                self.save_data(data_list,i)
                try:
                    #定位包含“下一页”字段的按钮并点击
                    button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                    button.click()
                    i += 1
                except:
                    break
            self.bro.quit()
        else:
            print("输入格式错误!")

四、完整代码

from selenium import webdriver
from time import sleep
import json
#创建一个类
class Douyu():
    def __init__(self):
        self.url = 'https://www.douyu.com/directory/all'
    #解析数据的函数
    def parse(self):
        #强制等待两秒,等待页面数据加载完毕
        sleep(2)
        li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
        #print(len(li_list))
        data_list = []
        for li in li_list:
            dic_data = {}
            dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
            dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
            dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
            dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
            data_list.append(dic_data)
        return data_list
    #保存数据的函数
    def save_data(self,data_list,i):
        #在当前目录下将数据存为txt文件
        with open('./douyu.txt','w',encoding='utf-8') as fp:
            for data in data_list:
                data = str(data)
                fp.write(data+'\n')
            print("第%d页保存完成!" % i)
        # json文件的存法
        # with open('./douyu.json','w',encoding='utf-8') as fp:
        # 里面有中文,所以注意ensure_ascii=False
        #     data = json.dumps(data_list,ensure_ascii=False)
        #     fp.write(data)
        #     print("第%d页保存完成!" % i)
    #主函数
    def run(self):
        #输入要爬取的页数,如果输入负整数,转化成她的绝对值
        page_num = abs(int(input("请输入你要爬取的页数:")))
        #初始化页数为1
        i = 1
        #判断输入的数是否为整数
        if isinstance(page_num,int):
            #实例化浏览器对象
            self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
            # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'

            self.bro.get(self.url)
            while i <= page_num:
                #调用解析函数
                data_list = self.parse()
                #调用保存函数
                self.save_data(data_list,i)
                try:
                    #定位包含“下一页”字段的按钮并点击
                    button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                    button.click()
                    i += 1
                except:
                    break
            self.bro.quit()
        else:
            print("输入格式错误!")
if __name__ == '__main__':
    douyu = Douyu()
    douyu.run()

总结

本文是为了练习selenium而写的,由于一个页面有120条数据,所以采集效率较低,感兴趣的小伙伴们可以试一试requests库写,爬取速度更快哦!希望大家以后多多支持我们!

(0)

相关推荐

  • python网络爬虫selenium打开多窗口与切换页面的实现

    关于python网络爬虫selenium打开多窗口与切换页面的方法代码测试与解析. 首先打开百度 from selenium import webdriver import time driver = webdriver.Chrome() driver.get('https://www.baidu.com/') 以知乎为例,打开一个新的界面,使用 execute_script() 方法,执行JavaScript代码.并调用driver的current_url属性,然后查看当前页面的url: dr

  • Python+selenium 自动化快手短视频发布的实现过程

    第一章:效果展示 ① 效果展示 ② 素材展示 一个为视频,另一个为像素大小不小于视频的封面. 第二章:实现过程 ① 调用已启用的浏览器 通过调用已启用的浏览器,可以实现直接跳过每次的登录过程. from selenium import webdriver options = webdriver.ChromeOptions() options.add_experimental_option("debuggerAddress", "127.0.0.1:5003") dr

  • Python + selenium 自动化测试框架详解

    目录 自动化测试框架 1.基础层(通用层) 2.功能层(页面层) 3.业务层 4.用例层 4层框架对应的项目工程 总结 自动化测试框架 项目自动化测试框架设计为4层 1.基础层(通用层) 基础层: 将通用,重复性比较高的代码封装到这里. 写通用的代码的. 其他3层想要的话,就可以直接调用. 例如: 读取测试数据的代码,读取配置信息的代码:截图的代码的,定位元素的代码等等 2.功能层(页面层) 功能层: pages 封装页面的. 把页面封装成类.类中包含:属性和方法 把页面上的界面元素定义成类的属

  • python网络爬虫 Scrapy中selenium用法详解

    引入 在通过scrapy框架进行某些网站数据爬取的时候,往往会碰到页面动态数据加载的情况发生,如果直接使用scrapy对其url发请求,是绝对获取不到那部分动态加载出来的数据值.但是通过观察我们会发现,通过浏览器进行url请求发送则会加载出对应的动态加载出的数据.那么如果我们想要在scrapy也获取动态加载出的数据,则必须使用selenium创建浏览器对象,然后通过该浏览器对象进行请求发送,获取动态加载的数据值. 1.案例分析: - 需求:爬取网易新闻的国内.国际.军事.无人机板块下的新闻数据

  • Python编程使用Selenium模拟淘宝登录实现过程

    目录 一.利用xpath进行(全程使用) 二.代码部分与图片内容 一.利用xpath进行(全程使用) driver.find_element_by_xpath() 二.代码部分与图片内容 打开淘宝网站,点击登录,输入账号密码,进入网站,搜索框中输入电脑,然后点击搜索 #导入selenium from selenium import webdriver #导入等待时间 import time #使用火狐浏览器进行访问 driver = webdriver.Firefox() #访问淘宝网站 dri

  • Python+selenium实现趣头条的视频自动上传与发布

    目录 效果展示 效果展示 素材展示 实现过程 调用已启用的浏览器 上传视频和封面 完整源码展示  补充 Python+selenium操作已启用的chrome浏览器 Python+selenium实现自动导入.上传外部文件 效果展示 效果展示 素材展示 一个为视频,另一个为像素大小不小于视频的封面. 实现过程 调用已启用的浏览器 通过调用已启用的浏览器,可以实现直接跳过每次的登录过程. 使用方法可以参考补充内容 from selenium import webdriver options = w

  • Python结合Selenium简单实现Web自动化测试

    这篇文章是入门级别的应用Python + Selenium进行自动化测试,包括环境搭建及简单的实例.基本思想是用Firefox Selenium IDE插件录制脚本并生成Python代码,用Python结合Selenium及浏览器驱动程序执行脚本.操作系统是Windows,过程中有不明白的地方记得百度下,比如不知道如何打开Windows CMD命令行.不知道如何设置环境变量等,因为本文的前提是读者已有一定的基础知识. 安装Python,访问其官网www.python.org下载最新版本,建议选择

  • python自动化测试selenium屏幕截图示例

    WebDriver内置了测试中捕获屏幕并保存的方法. 示例脚本: (1)save_screenshot(filename):保存屏幕截图 from selenium import webdriver from time import sleep,strftime,localtime,time import os class TestScreenShot(object): def setup(self): self.driver = webdriver.Chrome() self.driver.g

  • python实现selenium网络爬虫的方法小结

    selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题,selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转.输入.点击.下拉等,来拿到网页渲染之后的结果,可支持多种浏览器,这里只用到谷歌浏览器. 1.selenium初始化 方法一:会打开网页 # 该方法会打开goole网页 from selenium import webdriver url = '网址' driver = webdriver.Chrom

  • 利用Python+Selenium破解春秋航空网滑块验证码的实战过程

    目录 前言 开发工具 环境搭建 实战记录 一. 验证码简介 二.破解滑块验证码 2.1 计算滑块到缺口的距离 2.2 将滑块拖到缺口位置 前言 记录一次利用Python+Selenium破解滑块验证码的实战过程. 让我们愉快地开始吧~ 开发工具 Python版本: 3.6.4 相关模块: pillow模块: selenium模块: numpy模块: 以及一些Python自带的模块. 其他: chromedriver 环境搭建 安装Python并添加到环境变量,pip安装需要的相关模块即可. 实战

随机推荐