Python+Selenium实现一键摸鱼&采集数据

目录
  • 前言
  • 应用场景
  • 代码
    • 一键摸鱼(打开多个网页
    • 编写bat
    • 一键数据采集

前言

将Selenium程序编写为 .bat 可执行文件,从此一键启动封装好的Selenium程序,省时省力还可以复用,岂不美哉

应用场景

写好 .bat 可执行程序,从此快速摸鱼~

作用 释义
一键摸鱼 一次性打开多个共上班摸鱼的网页(如:B站,虎牙…
一键数据采集 执行 .bat 可执行文件,即完成数据的采集
给到他人使用自己写的脚本 .bat 可执行文件给到对方,即可畅快运行(忽略环境安装
开机后一键启动多个程序 自动打开多个指定程序

当然,还可以将 .bat 可执行文件添加到系统的 定时计划,那样就可以定时运行啦!

应该还有其它用途,但是我实在是编不下去了…

代码

一键摸鱼(打开多个网页

下面的代码是伪代码,随手的

这里不局限于是 摸鱼链接,它也可以是学习链接。

反正它可以一键打开N多个网页,省去你手动打开多个网页的烦恼,可谓是一劳永逸!!!

batch_open_website.py

# -*- coding: utf-8 -*-
# Name:         batch_open_website.py
# Author:       小菜
# Date:         2022/8/29 19:00
# Description:

from selenium import webdriver

driver = webdriver.Chrome()

driver.get('https://blog.csdn.net/weixin_45081575')

js = 'window.open("{url}")'

# 摸鱼链接
urls = [
    'http://mo.fish/',  # 摸鱼
    'https://bcy.net/',  # 半次元
    'http://jandan.net/',  # 煎蛋
    'https://www.huya.com/',  # 虎牙直播
    'https://dig.chouti.com/',  # 抽屉新热榜
    'https://www.bilibili.com',  # B站
]

for url in urls:
    driver.execute_script(js.format(url=url))

可以看到,已经打开浏览器并访问多个网页的了

编写bat

这一步比较简单,

demo.bat

@echo off
f:
cd F:\_selenium

start D:\Python3.10.4\python.exe batch_open_website.py

代码释义:

第一行是默认写法

第二、三行是切换路径,切换到Python脚本所在的路径

最后一行是指定Python 运行的路径,当然,如果只安装了一个Python版本的,改成 start python 即可

demo.bat 可执行文件,运行效果如下:

一键数据采集

本文有标题党的嫌疑,但确实可以实现这个功能~

这个自己去完成吧。毕竟只有自己才知道自己需要采集啥数据,Selenium也是可以采集数据的,虽然有点慢,嗯。。。就是慢!但胜在简单!

开机自启N个程序

思路发散一下,可以指定打开多个电脑程序,不局限于Selenium浏览器的使用。

这里指定打开多个电脑程序,省去一个个打开的繁琐~

batch_start_application.bat

@echo off

start chrome.exe

timeout /t 1

start wps.exe

timeout /t 1

start D:\WeChat\WeChat.exe

timeout /t 1

start D:\Typora\Typora.exe

代码释义:

timeout /t 1:等待一秒

start path/application:打开指定路径的程序(也可以不指定路径

代码运行效果如下:

可以看到,电脑依次打开了在代码中指定的程序(chrome、wps、WeChat、typora…

这里思路再发散一下,将这个 batch_start_application.bat 可执行文件放置到 开机自启动目录,那就每次电脑开机都会启动对应的程序了~

步骤如下:

【Win+R】(按下 键盘的Win +R,打开Windows系统的“运行”窗口

shell:startup(然后在窗口中输入 shell:startup,回车后会弹出一个文件夹

拷贝 batch_start_application.bat 到弹出来的文件夹中 即可

上述操作完成后,电脑每次开机启动时候都会打开你指定的程序啦!是不是很省事呢

到此这篇关于Python+Selenium实现一键摸鱼&采集数据的文章就介绍到这了,更多相关Python Selenium内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 亲手教你用Python打造一款摸鱼倒计时界面

    前言 前段时间在微博看到一段摸鱼人的倒计时模板,感觉还挺有趣的. 于是我用了一小时的时间写了个页面出来 摸鱼办地址 (当然是摸鱼的时间啦). 模板是这样的: 摸鱼办公室  你好,摸鱼人,工作再累,一定不要忘记摸鱼哦 ! 有事没事起身去茶水间去廊道去天台走走,别老在工位上坐着.多喝点水,钱是老板的,但命是自己的 ! 距离 周末 放假还有 2 天 距离 元旦 放假还有 3 天 距离 过年 放假还有 34 天 距离 清明节 放假还有 97 天 距离 劳动节 放假还有 123 天 距离 端午节 放假还有

  • python selenium实现智联招聘数据爬取

    一.主要目的 最近在玩Python网络爬虫,然后接触到了selenium这个模块,就捉摸着搞点有意思的,顺便记录一下自己的学习过程. 二.前期准备 操作系统:windows10 浏览器:谷歌浏览器(Google Chrome) 浏览器驱动:chromedriver.exe (我的版本->89.0.4389.128 ) 程序中我使用的模块 import csv import os import re import json import time import requests from sele

  • 基于Python绘制一个摸鱼倒计时界面

    目录 前言 实现过程 前言 前段时间在微博看到一段摸鱼人的倒计时模板,感觉还挺有趣的. 于是我用了一小时的时间写了个页面出来 摸鱼办地址 (当然是摸鱼的时间啦). 模板是这样的: 摸鱼办公室 [摸鱼办公室]今天是 2021-11-30 星期二 你好,摸鱼人,工作再累,一定不要忘记摸鱼哦 ! 有事没事起身去茶水间去廊道去天台走走,别老在工位上坐着.多喝点水,钱是老板的,但命是自己的 ! 距离 周末 放假还有 2 天 距离 元旦 放假还有 3 天 距离 过年 放假还有 34 天 距离 清明节 放假还

  • Python实现批量采集商品数据的示例详解

    目录 本次目的 知识点 开发环境 代码 本次目的 python批量采集某商品数据 知识点 requests 发送请求 re 解析网页数据 json 类型数据提取 csv 表格数据保存 开发环境 python 3.8 pycharm requests 代码 导入模块 import json import random import time import csv import requests import re import pymysql 核心代码 # 连接数据库 def save_sql(t

  • Python selenium爬取微博数据代码实例

    爬取某人的微博数据,把某人所有时间段的微博数据都爬下来. 具体思路: 创建driver-----get网页----找到并提取信息-----保存csv----翻页----get网页(开始循环)----...----没有"下一页"就结束, 用了while True,没用自我调用函数 嘟大海的微博:https://weibo.com/u/1623915527 办公室小野的微博:https://weibo.com/bgsxy 代码如下 from selenium import webdrive

  • 利用Python写个摸鱼监控进程

    目录 监控键盘 监控鼠标 记录监控日志 完整代码 总结 继打游戏.看视频等摸鱼行为被监控后,现在打工人离职的倾向也会被监控. 有网友爆料称知乎正在低调裁员,视频相关部门几乎要裁掉一半.而在知乎裁员的讨论区,有网友表示企业安装了行为感知系统,该系统可以提前获知员工跳槽念头. 而知乎在否认了裁员计划的同时,也声明从未安装使用过网上所说的行为感知系统,今后也不会启用类似软件工具. 因为此事,深信服被推上风口浪尖,舆论关注度越来越高. 一时间,“打工人太难了”“毫无隐私可言”的讨论层出不穷. 今天就带大

  • Python+Selenium实现一键摸鱼&采集数据

    目录 前言 应用场景 代码 一键摸鱼(打开多个网页 编写bat 一键数据采集 前言 将Selenium程序编写为 .bat 可执行文件,从此一键启动封装好的Selenium程序,省时省力还可以复用,岂不美哉 应用场景 写好 .bat 可执行程序,从此快速摸鱼~ 作用 释义 一键摸鱼 一次性打开多个共上班摸鱼的网页(如:B站,虎牙… 一键数据采集 执行 .bat 可执行文件,即完成数据的采集 给到他人使用自己写的脚本 .bat 可执行文件给到对方,即可畅快运行(忽略环境安装 开机后一键启动多个程序

  • 学习Python selenium自动化网页抓取器

    直接入正题---Python selenium自动控制浏览器对网页的数据进行抓取,其中包含按钮点击.跳转页面.搜索框的输入.页面的价值数据存储.mongodb自动id标识等等等. 1.首先介绍一下 Python selenium ---自动化测试工具,用来控制浏览器来对网页的操作,在爬虫中与BeautifulSoup结合那就是天衣无缝,除去国外的一些变态的验证网页,对于图片验证码我有自己写的破解图片验证码的源代码,成功率在85%. 详情请咨询QQ群--607021567(这不算广告,群里有好多P

  • 利用python实时刷新基金估值(摸鱼小工具)

    摸鱼小工具_利用python实时刷新基金估值 效果预览 上源码 import requests import json import os from prettytable import PrettyTable import time fundlist = ['163817','161017','003860'] def GetFundJsonInfo(fundcode): url = "http://fundgz.1234567.com.cn/js/"+fundcode+"

  • 利用python实时刷新基金估值效果(摸鱼小工具)

    摸鱼小工具_利用python实时刷新基金估值 效果预览 上源码 import requests import json import os from prettytable import PrettyTable import time fundlist = ['163817','161017','003860'] def GetFundJsonInfo(fundcode): url = "http://fundgz.1234567.com.cn/js/"+fundcode+"

  • Python基于scrapy采集数据时使用代理服务器的方法

    本文实例讲述了Python基于scrapy采集数据时使用代理服务器的方法.分享给大家供大家参考.具体如下: # To authenticate the proxy, #you must set the Proxy-Authorization header. #You *cannot* use the form http://user:pass@proxy:port #in request.meta['proxy'] import base64 proxy_ip_port = "123.456.7

  • Python+Selenium+PIL+Tesseract自动识别验证码进行一键登录

    本文介绍了Python+Selenium+PIL+Tesseract自动识别验证码进行一键登录,分享给大家,具体如下: Python 2.7 IDE Pycharm 5.0.3 Firefox浏览器:47.0.1 Selenium PIL Pytesser Tesseract 扯淡 ​ 我相信每个脚本都有自己的故事,我这个脚本来源于自己GRD教务系统,每次进行登录时,即使我输入全部正确,第一次登录一定是登不上去的!我不知道设计人员什么想法?难道是为了反爬机制?你以为一次登不上,我tm就不爬了?我

  • Python使用scrapy采集数据时为每个请求随机分配user-agent的方法

    本文实例讲述了Python使用scrapy采集数据时为每个请求随机分配user-agent的方法.分享给大家供大家参考.具体分析如下: 通过这个方法可以每次请求更换不同的user-agent,防止网站根据user-agent屏蔽scrapy的蜘蛛 首先将下面的代码添加到settings.py文件,替换默认的user-agent处理模块 复制代码 代码如下: DOWNLOADER_MIDDLEWARES = {     'scraper.random_user_agent.RandomUserAg

  • Python使用scrapy采集数据过程中放回下载过大页面的方法

    本文实例讲述了Python使用scrapy采集数据过程中放回下载过大页面的方法.分享给大家供大家参考.具体分析如下: 添加以下代码到settings.py,myproject为你的项目名称 复制代码 代码如下: DOWNLOADER_HTTPCLIENTFACTORY = 'myproject.downloader.LimitSizeHTTPClientFactory' 自定义限制下载过大页面的模块 复制代码 代码如下: MAX_RESPONSE_SIZE = 1048576 # 1Mb fro

随机推荐