Python爬虫之获取心知天气API实时天气数据并弹窗提醒
一、心知天气API密钥获取
首先,访问https://www.seniverse.com,进行登录或者注册操作,然后在控制台上创建一个免费版的项目,创建后,项目信息为:
复制你的私钥信息,来到官方文档,发现API地址为:
在文档中,可以看到查询的API网址,接下来,把url中的参数key改为你的密钥,访问,返回的json数据:
二、编写代码
代码如下:
import requests from plyer import notification """ plyer是用来显示弹窗的模块 安装命令:pip install plyer """ params = { "key": "你的API密钥", "location": "ip", # 查询地点设置为访问IP所在地 "language": "zh-Hans", "unit": "c", } url = "https://api.seniverse.com/v3/weather/now.json" # 获取数据 r = requests.get(url, params=params) # 解析数据 data = r.json()["results"] address = data[0]["location"]['path'] # 地点 temperature = data[0]['now']["temperature"] # 温度 text = data[0]['now']["text"] # 天气情况 # 弹窗显示消息 message = address + " 当前天气:\n" + \ "温度:" + temperature + "℃" + \ "\n天气情况:" + text + \ "\n祝您心情愉悦!(^o^)" """ 标题为“当前天气” 显示10秒钟(timeout参数) """ notification.notify(title="当前天气", message=message, timeout=10)
运行代码,可以看到屏幕右下角出现了提示弹窗。
三、设置为自启动项目
这里我以Windows系统为例,首先,在桌面创建一个bat文件,命名为weather.bat,输入代码:
python D:\Python爬虫\demo.py
其中“D:\Python爬虫\demo.py”是我的Python代码路径,你可以根据自己的进行修改。
接下来,右击“计算机”,选择“管理”,再找到任务计划程序库,点击右边的“创建基本任务”,如图:
然后,为自启动项目设置名称和描述:
点击“下一步”,选择触发事件:
再次点击“下一步”:
接下来,再再点击“下一步”,选择之前在桌面创建的weather.bat文件,如图:
点击“下一步”,再点击“完成”,可以看到自启动项目中已经出现了刚才的设置:
接下来,每一次登录这个账号,都会自动启动这个项目,如图,笔者退出账号后,再登录,可以看到右下角出现了弹窗:
到此这篇关于Python爬虫之获取心知天气API实时天气数据并弹窗提醒的文章就介绍到这了,更多相关Python爬取天气数据内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!
相关推荐
-
Python爬虫之爬取二手房信息
前言 说到二手房信息,不知道你们心里最先跳出来的公司(网站)是什么,反正我心里第一个跳出来的是网站是 58 同城.哎呦,我这暴脾气,想到就赶紧去干. 但很显然,我失败了.说显然,而不是不幸,这是因为 58 同城是大公司,我这点本事爬不了数据是再正常不过的了.下面来看看 58 同城的反爬手段了.这是我爬取下来的网页源码. 我们看到爬取下来的源码有很多英文大写字母和数字是网页源码中没有的,后来我了解到 58 同城对自己的网站的源码进行了文本加密,所以就出现了我爬取到的情况. 爬取二手房信息 我打开
-
使用python爬取taptap网站游戏截图的步骤
今天使用python写了一个简单的爬虫,用来下载taptap网站的游戏截图.下面说下具体的实现方法. 在搜索框中搜索"原神" 打开浏览器的开发者选项,从详情按钮里面跳转到游戏的页面,点击详情之后,跳转页面 这时候看到,浏览器地址:https://www.taptap.com/app/168332,tap官网的域名加上app/和图一的游戏id,可以使用re模块正则表达式模块从接口中获取到这个id x_ua = 'V=1&PN=WebApp&LANG=zh_CN&V
-
python爬取天气数据的实例详解
就在前几天还是二十多度的舒适温度,今天一下子就变成了个位数,小编已经感受到冬天寒风的无情了.之前对获取天气都是数据上的搜集,做成了一个数据表后,对温度变化的感知并不直观.那么,我们能不能用python中的方法做一个天气数据分析的图形,帮助我们更直接的看出天气变化呢? 使用pygal绘图,使用该模块前需先安装pip install pygal,然后导入import pygal bar = pygal.Line() # 创建折线图 bar.add('最低气温', lows) #添加两线的数据序列 b
-
Python基于Tkinter开发一个爬取B站直播弹幕的工具
简介 使用Python Tkinter开发一个爬取B站直播弹幕的工具,启动后在弹窗中输入房间号即可,弹幕内容会保存在脚本文件同级目录下的.log扩展名的文件中 开发工具 python 3.7.9 pycharm 2019.3.5 实现代码 import threading import time import tkinter.simpledialog # 使用Tkinter前需要先导入 from tkinter import END, messagebox import requests # 全
-
python爬取哈尔滨天气信息
本文实例为大家分享了python爬取哈尔滨天气信息的具体代码,供大家参考,具体内容如下 环境: windows7 python3.4(pip install requests:pip install BeautifulSoup4) 代码: (亲测可以正确执行) # coding:utf-8 """ 总结一下,从网页上抓取内容大致分3步: 1.模拟浏览器访问,获取html源代码 2.通过正则匹配,获取指定标签中的内容 3.将获取到的内容写到文件中 ""&qu
-
用python爬取历史天气数据的方法示例
某天气网站(www.数字.com)存有2011年至今的天气数据,有天看到一本爬虫教材提到了爬取这些数据的方法,学习之,并加以改进. 准备爬的历史天气 爬之前先分析url.左上有年份.月份的下拉选择框,按F12,进去看看能否找到真正的url: 很容易就找到了,左边是储存月度数据的js文件,右边是文件源代码,貌似json格式. 双击左边js文件,地址栏内出现了url:http://tianqi.数字.com/t/wea_history/js/54511_20161.js url中的"54511&qu
-
Python爬取国外天气预报网站的方法
本文实例讲述了Python爬取国外天气预报网站的方法.分享给大家供大家参考.具体如下: crawl_weather.py如下: #encoding=utf-8 import httplib import urllib2 import time from threading import Thread import threading from Queue import Queue from time import sleep import re import copy lang = "fr&qu
-
python3爬取各类天气信息
本来是想从网上找找有没有现成的爬取空气质量状况和天气情况的爬虫程序,结果找了一会儿感觉还是自己写一个吧. 主要是爬取北京包括北京周边省会城市的空气质量数据和天气数据. 过程中出现了一个错误:UnicodeDecodeError: 'utf-8' codec can't decode byte 0xa1 in position 250. 原来发现是页面的编码是gbk,把语句改成data=urllib.request.urlopen(url).read().decode("gbk")就可以
-
Python爬虫之爬取最新更新的小说网站
一.引言 这个五一假期自驾回老家乡下,家里没装宽带,用手机热点方式访问网络.这次回去感觉4G信号没有以前好,通过百度查找小说最新更新并打开小说网站很慢,有时要打开好多个网页才能找到可以正常打开的最新更新.为了躲懒,老猿决定利用Python爬虫知识,写个简单应用自己查找小说最新更新并访问最快的网站,花了点时间研究了一下相关报文,经过近一天时间研究和编写,终于搞定,下面就来介绍一下整个过程. 二.关于相关访问请求及应答报文 2.1.百度搜索请求 我们通过百度网页的搜索框进行搜索时,提交的url请求是
-
Python爬虫之获取心知天气API实时天气数据并弹窗提醒
一.心知天气API密钥获取 首先,访问https://www.seniverse.com,进行登录或者注册操作,然后在控制台上创建一个免费版的项目,创建后,项目信息为: 复制你的私钥信息,来到官方文档,发现API地址为: 在文档中,可以看到查询的API网址,接下来,把url中的参数key改为你的密钥,访问,返回的json数据: 二.编写代码 代码如下: import requests from plyer import notification """ plyer是用来显示弹
-
Python爬虫自动化获取华图和粉笔网站的错题(推荐)
这篇博客对于考公人或者其他用华图或者粉笔做题的人比较友好,通过输入网址可以自动化获取华图以及粉笔练习的错题. 粉笔网站 我们从做过的题目组中获取错题 打开某一次做题组,我们首先进行抓包看看数据在哪里 我们发现现在数据已经被隐藏,事实上数据在这两个包中: https://tiku.fenbi.com/api/xingce/questions https://tiku.fenbi.com/api/xingce/solutions 一个为题目的一个为解析的.此url要通过传入一个题目组参数才能获取到当
-
Python爬虫实现获取动态gif格式搞笑图片的方法示例
本文实例讲述了Python爬虫实现获取动态gif格式搞笑图片的方法.分享给大家供大家参考,具体如下: 有时候看到一些喜欢的动图,如果一个个取保存挺麻烦,有的网站还不支持右键保存,因此使用python来获取动态图,就看看就很有意思了 本次爬取的网站是 居然搞笑网 http://www.zbjuran.com/dongtai/list_4_1.html 思路: 获取当前页面内容 查找页面中动图所代表的url地址 保存这个地址内容到本地 如果想爬取多页,就可以加上一个循环条件 代码: #!/usr/
-
python 爬虫 批量获取代理ip的实例代码
实例如下所示: import urllib.request import os, re,sys,time try: from StringIO import StringIO except ImportError: from io import StringIO loca = re.compile(r"""ion":"\D+", "ti""") #伪装成浏览器 header = {'User-Agent':
-
python爬虫实现获取下一页代码
我们首先来看下实例代码: from time import sleep import faker import requests from lxml import etree fake = faker.Faker() base_url = "http://angelimg.spbeen.com" def get_next_link(url): content = downloadHtml(url) html = etree.HTML(content) next_url = html.x
-
python爬虫分布式获取数据的实例方法
在我们进行卫生大扫除的时候,因为工作任务较多,所以我们会进行分工,每个人负责不同的打扫项目.同样分工合作的理念,在python分布式爬虫中也得到了应用.我们需要给不同的爬虫分配指令,让它们去分头行动获取同一个网站的数据.那么这些爬虫是怎么分工搜集数据的呢?感兴趣的小伙伴,我们可以通过下面的示例进行解惑. 假设我有三台爬虫服务器A.B和C.我想让我所有的账号登录任务分散到三台服务器.让用户抓取在A和B上执行,让粉丝和关注抓取在C上执行,那么启动A.B.C三个服务器的celery worker的命令
-
Python爬虫后获取重定向url的两种方法
下面给大家分享Python爬虫后获取重定向url的两种方法,具体内容如下所示: 方法(一) # 获得重定向url from urllib import request # https://zhidao.baidu.com/question/681501874175782812.html url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW
-
python爬虫实现爬取同一个网站的多页数据的实例讲解
对于一个网站的图片.文字音视频等,如果我们一个个的下载,不仅浪费时间,而且很容易出错.Python爬虫帮助我们获取需要的数据,这个数据是可以快速批量的获取.本文小编带领大家通过python爬虫获取获取总页数并更改url的方法,实现爬取同一个网站的多页数据. 一.爬虫的目的 从网上获取对你有需要的数据 二.爬虫过程 1.获取url(网址). 2.发出请求,获得响应. 3.提取数据. 4.保存数据. 三.爬虫功能 可以快速批量的获取想要的数据,不用手动的一个个下载(图片.文字音视频等) 四.使用py
-
SpringMVC结合天气api实现天气查询
本实例实现在jsp页面实现查询全国城市天气预报的功能,供大家参考,具体内容如下 实例目录: 实现效果: 具体思路: 从和风天气api那里取得具体城市的api接口,获取json数据,再对json数据进行解析. 获取json数据: package com.util; import java.io.BufferedReader; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream
-
Python爬虫实例_利用百度地图API批量获取城市所有的POI点
上篇关于爬虫的文章,我们讲解了如何运用Python的requests及BeautifuiSoup模块来完成静态网页的爬取,总结过程,网页爬虫本质就两步: 1.设置请求参数(url,headers,cookies,post或get验证等)访问目标站点的服务器: 2.解析服务器返回的文档,提取需要的信息. 而API的工作机制与爬虫的两步类似,但也有些许不同: 1.API一般只需要设置url即可,且请求方式一般为"get"方式 2.API服务器返回的通常是json或xml格式的数据,解析更简
随机推荐
- Java编程redisson实现分布式锁代码示例
- Zabbix邮件报警设置方法
- PHP 如何利用phpexcel导入数据库
- Yii中srbac权限扩展模块工作原理与用法分析
- C/C++动态分配与释放内存的区别详细解析
- MySQL下载安装、配置与使用教程详细版(win7x64)
- php下连接mssql2005的代码
- js制作支付倒计时页面
- php删除页面记录 同时刷新页面 删除条件用GET方式获得
- 在Ruby中创建和使用哈希的教程
- Linux系统环境下如何获得U盘拔插的信息
- 浅谈C++中派生类对象的内存布局
- .net读写xml文档详解
- shell中使用expect命令进行远程执行命令脚本
- Java中缀表达式转后缀表达式实现方法详解
- python:按行读入,排序然后输出的方法
- oracle如何合并多个sys_refcursor详解
- Tomcat中对静态资源的处理教程
- 浅谈django model postgres的json字段编码问题
- linux 服务器自动备份脚本的方法(mysql、附件备份)