Python Http发送请求浅析

目录
  • 前言
  • 浅析requests
  • 浅析aiohttp
  • 浅析httpx
  • 结语

前言

相信很多人使用Python做接口请求(Http客户端请求)的时候,很多人肯定用过这几个:urllib,urllib3,requests.没错,反正我常用,而且在我这里出现最多最靓眼的那个崽是requests, 毕竟普通接口请求,爬虫常用, 而且封装起来后使用更为简单。所以在这篇文章里面,它是我浅析研究三国鼎立的其中之一。

这篇文章主要浅析这三个:

  • requests
  • aiohttp
  • httpx

浅析requests

在不借助其他第三方库的情况下,requests 只能发送同步请求。requests 是一个Python第三方库,处理URL资源特别方便,而且相对于urllib3来说封装了更多功能,并且使用步骤简单。

我们深入一下到requests api源码来看一下: 

从图片来看,其实可以大概看出requests支持哪些功能 然后圈红的其实是最常用的一些功能,也就是可以设置请求方式,请求头,cookie,过期时间,请求接口验证,文件上传等等功能。

整理了日常大概常用的方,应该是下面这几种格式:

# get 请求
requests.get(url, params)

# post 请求
requests.post(url, data)
# 文件上传
upload_files = {'file': open('report.xls', 'rb')}
requests.post(url, file=upload_files)
# 设置header
headers = {'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit'}
requests.post(url, headers=headers)
# 设置cookie
cookies = {'token': '12345', 'status': '摸鱼'}
requests.post(url, cookies=cookies)

如果单纯请求一个接口,获取接口数据的话,上面的完全够用了,不需要额外的操作。

但是requests有时候挺多用在爬虫场景下,爬虫有的需要保持登录信息去爬取其他接口,那么单纯的去使用requests.get 或者 requests.post,这都是一次性的请求,是不太满足需求的。 对于登录成功,再去请求其他的接口,可能需要之前生成的cookie或者token,这时候,这些信息就需要进行保存。对于这种情况,可以使用requests.session,它可以自动处理cookies,做状态保持.

大概的使用步骤应该是这样子:

# 先实例化一个对象
session = requests.session()
# 给 requests.session() 对象设置cookie信息,这个看情况使用,具体情况具体分析啊
cookies_dict = {}
session.cookies = requests.utils.cookiejar_from_dict(cookies_dict)
# 后面用法和直接使用requests一样了
# get请求
response = session.get(url)
# post请求
response = session.post(url, json=json_data)
result = response.json()
#获取登陆的所有cookies信息
print(result.cookies.values()) 

通过上面这些大概步骤,对于信息状态保持是已经足够了,这时候再用这些保持的信息去爬取接口是没有多大问题的(按道理啊,经典案例的话可以去模拟爬取一下淘宝PC端,本文具体的就不介绍了。)

浅析aiohttp

在不借助其他第三方库的情况下,aiohttp只能发送异步请求

其实,人都是贪心的,在同步请求足够完成需求后,那么人就会去从其他方面去提升, 比如同样的接口,希望能更快的处理返回,减少消耗时间,不希望阻塞。

那么随着这种需要,那么异步请求也就出现了。目前支持异步请求的方式有 async/await+asyncio+requests 组合构成,也可以使用aiohttp.aiohttp是一个为Python提供异步HTTP客户端、服务端编程,基于asyncio的异步库。aiohttp 同样是可以设置请求方式,请求头,cookie,代理,上传文件等功能的

大概用代码来表示,应该是常见这些:

# post 请求
payload = {
        "data": "hello world"
    }
async with aiohttp.ClientSession() as session:
	async with session.post(url, json=payload) as resp:
		print(resp.status)
# get请求
# 创建使用session
async with aiohttp.ClientSession() as session:
	async with session.get(url) as resp:
		print(resp.status)
		res = await resp.text()
		return res

# 上传文件
files = {'file': open('report.xls', 'rb')}
async with aiohttp.ClientSession() as sess:
	async with sess.post(url, data=files) as resp:
		print(resp.status)
		print(await resp.text())

# 设置header, cookie
headers = {'User-Agent': 'your agent'}
cookies= {'cookies_are': '摸鱼'}
async with aiohttp.ClientSession(headers=headers, cookies=cookies) as session:
	async with session.get(url) as resp:
		print(resp.status)
		res = await resp.text()
		return res

当然异步的请求,多可以是对接口返回数据在其他地方没有太强的依赖,异步的作用更多是用于提高效率,节省同步等待时间。

浅析httpx

在不借助其他第三方库的情况下,httpx既能发送同步请求,又能发送异步请求

httpx是Python新一代的网络请求库,它包含以下特点:

  • 1.基于Python3的功能齐全的http请求模块
  • 2.既能发送同步请求,也能发送异步请求
  • 3.支持HTTP/1.1和HTTP/2
  • 4.能够直接向WSGI应用程序或者ASGI应用程序发送请求

安装 httpx需要Python3.6+(使用异步请求需要Python3.8+)

httpx是Python新一代的网络请求库, 功能和requests基本都一致,但是requests在没有第三方库的支持下只能发同步请求, 但是httpx不仅可以发同步请求,还可以异步,这个是比requests要好的。因为和requests差不多,那么requests能支持设置的,那么httpx也同样可以支持

基本的使用方法:

data = {
    'name': 'autofelix',
    'age': 25
}

# get请求
httpx.get(url,params=data)
# post请求
httpx.post(url, data=data)

# 设置header,cookie,timeout
headers = {'User-Agent': 'your agent'}
cookies= {'cookies_are': '摸鱼'}
httpx.get(url, headers=headers, cookies=cookies, timeout=10.0)

# 使用client发送(同步)请求
with httpx.Client() as client:
   response = client.get(url)

异步操作, 使用async/await语句来进行异步操作,使用异步client比使用多线程发送请求更加高效,更能体现明显的性能优势

import asyncio
import httpx

async def main():
    # 异步请求AsyncClient
    async with httpx.AsyncClient() as client:
        response = await client.get(url)
        print(response)

if __name__ == '__main__':
    # python3.7+ 支持写法
    # asyncio.run(main())
    # python3.6及以下版本写法
    loop = asyncio.get_event_loop()
    result = loop.run_until_complete(asyncio.gather(main()))
    loop.close()

大体看下,同步请求使用httpx.client(), 异步请求使用httpx.AsyncClient(), 然后其他的一些基本用法都大体相似。可以说,如果你对requests熟练,那么对于aiohttp以及httpx也是很快就能上手理解的。

结语

到此这篇关于Python Http发送请求浅析的文章就介绍到这了,更多相关Python Http请求内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 解决Python发送Http请求时,中文乱码的问题

    解决方法: 先encode再quote. 原理: msg.encode('utf-8')是解决中文乱码问题. quote():假如URL的 name 或者 value 值中有『&』.『%』或者『=』等符号,就会有问题.所以URL中的参数字符串也需要把『&=』等符号进行编码,quote()就是对参数字符串中的『&=%』等符号进行编码. 例子: # -*- coding: UTF-8 -*- # python2.7 from urllib import quote import req

  • 利用Python发送 10 万个 http 请求

    目录 1.队列+多线程 2.线程池 3.协程 + aiohttp 4.grequests[1] 前言: 假如有一个文件,里面有 10 万个 url,需要对每个 url 发送 http 请求,并打印请求结果的状态码,如何编写代码尽可能快的完成这些任务呢? Python 并发编程有很多方法,多线程的标准库 threading,concurrency,协程 asyncio,当然还有 grequests 这种异步库,每一个都可以实现上述需求,下面一一用代码实现一下,本文的代码可以直接运行,给你以后的并发

  • Python并发编程队列与多线程最快发送http请求方式

    目录 队列+多线程 线程池 协程 + aiohttp grequests 最后的话 Python 并发编程有很多方法,多线程的标准库 threading,concurrency,协程 asyncio,当然还有 grequests 这种异步库,每一个都可以实现上述需求,下面一一用代码实现一下,本文的代码可以直接运行,给你以后的并发编程作为参考: 队列+多线程 定义一个大小为 400 的队列,然后开启 200 个线程,每个线程都是不断的从队列中获取 url 并访问. 主线程读取文件中的 url 放入

  • 基于Python模拟浏览器发送http请求

    1.使用 urllib2 实现 #! /usr/bin/env python # -*- coding=utf-8 -*- import urllib2 url="https://www.baidu.com" req_header = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/53

  • 对Python发送带header的http请求方法详解

    简单的header import urllib2 request = urllib2.Request('http://example.com/') request.add_header('User-Agent', 'fake-client') response = urllib2.urlopen(request) print request.read() 包含较多元素的header import urllib,urllib2 url = 'http://example.com/' headers

  • python通过get,post方式发送http请求和接收http响应的方法

    本文实例讲述了python通过get,post方式发送http请求和接收http响应的方法.分享给大家供大家参考.具体如下: 测试用CGI,名字为test.py,放在apache的cgi-bin目录下: #!/usr/bin/python import cgi def main(): print "Content-type: text/html\n" form = cgi.FieldStorage() if form.has_key("ServiceCode") a

  • Python Http发送请求浅析

    目录 前言 浅析requests 浅析aiohttp 浅析httpx 结语 前言 相信很多人使用Python做接口请求(Http客户端请求)的时候,很多人肯定用过这几个:urllib,urllib3,requests.没错,反正我常用,而且在我这里出现最多最靓眼的那个崽是requests, 毕竟普通接口请求,爬虫常用, 而且封装起来后使用更为简单.所以在这篇文章里面,它是我浅析研究三国鼎立的其中之一. 这篇文章主要浅析这三个: requests aiohttp httpx 浅析requests

  • requests在python中发送请求的实例讲解

    当我们想给服务器发送一些请求时,可以选择requests库来实现.相较于其它库而言,这种库的使用还是非常适合新手使用的.本篇要讲的是requests.get请求方法,这里需要先对get请求时的一些参数进行学习,在掌握了基本的用法后,可以就下面的requests.get请求实例进一步的探究. 1.get请求的部分参数 (1) url(请求的url地址,必需 ) import requests url="http://www.baidu.com" resp=requests.get(url

  • Python使用grequests并发发送请求的示例

    前言 requests是Python发送接口请求非常好用的一个三方库,由K神编写,简单,方便上手快.但是requests发送请求是串行的,即阻塞的.发送完一条请求才能发送另一条请求. 为了提升测试效率,一般我们需要并行发送请求.这里可以使用多线程,或者协程,gevent或者aiohttp,然而使用起来,都相对麻烦. grequests是K神基于gevent+requests编写的一个并发发送请求的库,使用起来非常简单. 安装方法: pip install gevent grequests 项目地

  • Python接口自动化之浅析requests模块post请求

    在上一篇Python接口自动化测试系列文章:Python接口自动化之浅析requests模块get请求,介绍了requests模块.get请求及响应结果详解.接下来介绍requests模块中的post请求的使用. 一.源码解析 def post(url, data=None, json=None, **kwargs): r"""Sends a POST request. :param url: URL for the new :class:`Request` object.

  • Python接口自动化之浅析requests模块get请求

    一.requests模块说明 介绍 Requests是Python语言的第三方的库,专门用于发送HTTP请求. 特点 1.Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动响应内容的编码,支持国际化的URL和POST数据自动编码. 2.在python内置模块的基础上进行了高度的封装,从而使得python进行网络请求时,变得人性化,使用Requests可以轻而易举的完成浏览器可有的任何操作. 3.Requests会自动实现持久连接keep-alive

  • Python基于scapy实现修改IP发送请求的方法示例

    本文实例讲述了Python基于scapy实现修改IP发送请求的方法.分享给大家供大家参考,具体如下: 今天同事想测试WAF的页面统计功能,所以需要模拟多个IP向多个域名发送请求,也就是需要修改源IP地址.这个如果使用socket库就比较麻烦了, 需要使用raw socket,相当麻烦.还好咱有scapy,轻松搞定. DOMAIN是我随机构造的域名库,SOURCE也是随机构造的源IP地址. #!/usr/bin/env python #-*-encoding:UTF-8-*- from scapy

  • Python使用grequests(gevent+requests)并发发送请求过程解析

    前言 requests是Python发送接口请求非常好用的一个三方库,由K神编写,简单,方便上手快.但是requests发送请求是串行的,即阻塞的.发送完一条请求才能发送另一条请求. 为了提升测试效率,一般我们需要并行发送请求.这里可以使用多线程,或者协程,gevent或者aiohttp,然而使用起来,都相对麻烦. grequests是K神基于gevent+requests编写的一个并发发送请求的库,使用起来非常简单. 安装方法: pip install gevent grequests 项目地

  • Python requests发送post请求的一些疑点

    前言 在Python爬虫中,使用requests发送请求,访问指定网站,是常见的做法.一般是发送GET请求或者POST请求,对于GET请求没有什么好说的,而发送POST请求,有很多朋友不是很清楚,主要是因为容易混淆 POST提交的方式 .今天在微信交流群里,就有朋友遇到了这种问题,特地讲解一下. 在HTTP协议中,post提交的数据必须放在消息主体中,但是协议中并没有规定必须使用什么编码方式,从而导致了 提交方式 的不同.服务端根据请求头中的 Content-Type 字段来获知请求中的消息主体

  • 在python中使用requests 模拟浏览器发送请求数据的方法

    如下所示: import requests url='http://####' proxy={'http':'http://####:80'} headers={ "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8", "Accept-Encoding": "gzip, deflate, br", "Accept-Lang

  • 使用Python爬虫库requests发送请求、传递URL参数、定制headers

    首先我们先引入requests模块 import requests 一.发送请求 r = requests.get('https://api.github.com/events') # GET请求 r = requests.post('http://httpbin.org/post', data = {'key':'value'}) # POST请求 r = requests.put('http://httpbin.org/put', data = {'key':'value'}) # PUT请

随机推荐