使用Python开发个京东上抢口罩的小实例(仅作技术研究学习使用)

全国抗”疫”这么久终于见到曙光,在家待了将近一个月,现在终于可以去上班了,可是却发现出门必备的口罩却一直买不到。最近看到京东上每天都会有口罩的秒杀活动,试了几次却怎么也抢不到,到了抢购的时间,浏览器的页面根本就刷新不出来,等刷出来秒杀也结束了。现在每天只放出一万个,却有几百万人在抢,很想知道别人是怎么抢到的,于是就在网上找了大神公开出来的抢购代码。看了下代码并不复杂,现在我们就报着学习的态度一起看看。

使用模块

requests:类似 urllib,主要用于向网站发送 HTTP 请求。

beautifulsoup4:HTML 解析器,用于将 HTML 文档转换成一个复杂的树形结构。

pillow:Python 图像处理标准库,用于识别验证码。

配置文件

一般项目中我们都需要把一些可配置的内容放到配置文件中,现在我们来看下这里主要配置项:

# 邮寄地所属地区ID

area = 123456

# 这是配置的商品的ID

skuid = 6828101

# 打码服务器的地址

captchaUrl = http://xxx/pic

# 通知邮箱

mail = xxxxxx@qq.com

# cookie的设置

cookies_String = shshshfpa21jsda8923892949204923123

OK,有了配置文件,那我们就得有一段读取配置文件的代码,这段代码实现将配置内容加载到内存中。

import os
import configparser
# 加载配置文件
class Config(object):
  def __init__(self, config_file='configDemo.ini'):
    self._path = os.path.join(os.getcwd(), config_file)
    if not os.path.exists(self._path):
      raise FileNotFoundError("No such file: config.ini")
    self._config = configparser.ConfigParser()
    self._config.read(self._path, encoding='utf-8-sig')
    self._configRaw = configparser.RawConfigParser()
    self._configRaw.read(self._path, encoding='utf-8-sig')
  def get(self, section, name):
    return self._config.get(section, name)
  def getRaw(self, section, name):
    return self._configRaw.get(section, name)

主程序模块

我看 GitHub 上也有实现了运行程序后通过京东 App 扫码登陆,然后再通过登陆 Cookie 访问网站的,不过这里并没有使用这种方式,毕竟我们打开浏览器开发者工具也能很容易获取到登陆的 Cookie,这里就是将 Cookie 直接放到配置文件里的方式。

# 主程序入口
# 检查是否存在要抢购的端口,然后进入循环扫描
if len(skuids) != 1:
  logger.info('请准备一件商品')
skuId = skuids[0]
flag = 1
# 循环扫描该商品是否有货,有库存即会自动下单,无库存则休眠后继续扫描
while (1):
  try:
    # 初始化校验
    if flag == 1:
      logger.info('当前是V3版本')
      validate_cookies()  # 校验登陆状态
      getUsername()    # 获取登陆用户信息
      select_all_cart_item()  # 全选购物车
      remove_item()      # 删除购物车
      add_item_to_cart(skuId)  # 增加抢购的商品
    # 检测配置文件修改
    if int(time.time()) - configTime >= 60:
      check_Config()
    logger.info('第' + str(flag) + '次 ')
    # 计数器
    flag += 1
    # 检查库存模块
    inStockSkuid = check_stock(checksession, skuids, area)
    # 自动下单模块
    V3AutoBuy(inStockSkuid)
    # 休眠模块
    timesleep = random.randint(1, 3) / 10
    time.sleep(timesleep)
    # 校验是否还在登录模块
    if flag % 100 == 0:
      V3check(skuId)
  except Exception as e:
    print(traceback.format_exc())
    time.sleep(10)

以上就是该项目主程序,我已经将代码在原来基础上增加了些注释,可以让我们更容易明白代码的含义。下面我们就选择几个比较关键的代码分析一下。

# 校验登陆状态
def validate_cookies():
  for flag in range(1, 3):
    try:
      targetURL = 'https://order.jd.com/center/list.action'
      payload = {
        'rid': str(int(time.time() * 1000)),
      }
      resp = session.get(url=targetURL, params=payload, allow_redirects=False)
      if resp.status_code == requests.codes.OK:
        logger.info('登录成功')
        return True
      else:
        logger.info('第【%s】次请重新获取cookie', flag)
        time.sleep(5)
        continue
    except Exception as e:
      logger.info('第【%s】次请重新获取cookie', flag)
      time.sleep(5)
      continue
  message.sendAny('脚本登录cookie失效了,请重新登录')
  sys.exit(1)

以上代码是每次调用时,循环两次获取通过 session 获取当前登陆状态,如果两次后依然失败则退出程序。

添加商品到购物车

接下来我们再看下如果添加商品到购物车的,代码如下:

def add_item_to_cart(sku_id):
  # 请求添加商品url
  url = 'https://cart.jd.com/gate.action'
  payload = {
    'pid': sku_id,
    'pcount': 1,
    'ptype': 1,
  }
  # 返回结果
  resp = session.get(url=url, params=payload)
  # 套装商品加入购物车后直接跳转到购物车页面
  if 'https://cart.jd.com/cart.action' in resp.url:
    result = True
  else:
   # 普通商品成功加入购物车后会跳转到提示 "商品已成功加入购物车!" 页面
    soup = BeautifulSoup(resp.text, "html.parser")
    result = bool(soup.select('h3.ftx-02')) # [<h3 class="ftx-02">商品已成功加入购物车!</h3>]
  if result:
    logger.info('%s 已成功加入购物车', sku_id)
  else:
    logger.error('%s 添加到购物车失败', sku_id)

在这里,只是简单几行代码就能将端口添加到购物车了,而且这里还区分了不同类型商品添加到购物车返回的页面结果是不同的,所以要进行区别处理。

购买商品

将商品添加到购物车了,接下来我们就得提交结算页了,也就是将商品提交到付款页面,这段代码有点多,我简化了下并加了些注释:

def submit_order(session, risk_control, sku_id, skuids, submit_Time, encryptClientInfo, is_Submit_captcha, payment_pwd,
         submit_captcha_text, submit_captcha_rid):
  # 提交端口的url
  url = 'https://trade.jd.com/shopping/order/submitOrder.action'
  # 提交参数
  data = {
    'overseaPurchaseCookies': '',
    'vendorRemarks': '[]',
    'submitOrderParam.sopNotPutInvoice': 'false',
    'submitOrderParam.trackID': 'TestTrackId',
    'submitOrderParam.ignorePriceChange': '0',
    'submitOrderParam.btSupport': '0',
    'riskControl': risk_control,
    'submitOrderParam.isBestCoupon': 1,
    'submitOrderParam.jxj': 1,
    'submitOrderParam.trackId': '9643cbd55bbbe103eef18a213e069eb0', # Todo: need to get trackId
    'submitOrderParam.needCheck': 1,
  }
  # 如果用到京豆会需要输入支付密码
  def encrypt_payment_pwd(payment_pwd):
    return ''.join(['u3' + x for x in payment_pwd])
  # 校验支付密码
  if len(payment_pwd) > 0:
    data['submitOrderParam.payPassword'] = encrypt_payment_pwd(payment_pwd)
  # 请求报文头
  headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/531.36",
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3",
    "Referer": "http://trade.jd.com/shopping/order/getOrderInfo.action",
    "Connection": "keep-alive",
    'Host': 'trade.jd.com',
  }
  # 订单提交会尝试两次
  for count in range(1, 3):
    logger.info('第[%s/%s]次尝试提交订单', count, 3)
    try:
      # 可能会存在的校验码
      if is_Submit_captcha:
        captcha_result = page_detail_captcha(session, encryptClientInfo)
        # 验证码服务错误
        if not captcha_result:
          logger.error('验证码服务异常')
          continue
        data['submitOrderParam.checkcodeTxt'] = submit_captcha_text
        data['submitOrderParam.checkCodeRid'] = submit_captcha_rid
      # 提交订单
      resp = session.post(url=url, data=data, headers=headers)
      resp_json = json.loads(resp.text)
      logger.info('本次提交订单耗时[%s]毫秒', str(int(time.time() * 1000) - submit_Time))
      # 判断是否提交成功
      if resp_json.get('success'):
        logger.info('订单提交成功! 订单号:%s', resp_json.get('orderId'))
        return True
      else:
        # 提交失败返回的多种原因
        resultMessage, result_code = resp_json.get('message'), resp_json.get('resultCode')
        if result_code == 0:
          # self._save_invoice()
          if '验证码不正确' in resultMessage:
            resultMessage = resultMessage + '(验证码错误)'
            logger.info('提交订单验证码[错误]')
            continue
          else:
            resultMessage = resultMessage + '(下单商品可能为第三方商品,将切换为普通发票进行尝试)'
        elif result_code == 60077:
          resultMessage = resultMessage + '(可能是购物车为空 或 未勾选购物车中商品)'
        elif result_code == 60123:
          resultMessage = resultMessage + '(需要在payment_pwd参数配置支付密码)'
        elif result_code == 60070:
          resultMessage = resultMessage + '(省份不支持销售)'
          skuids.remove(sku_id)
          logger.info('[%s]类型口罩不支持销售', sku_id)
        logger.info('订单提交失败, 错误码:%s, 返回信息:%s', result_code, resultMessage)
        logger.info(resp_json)
        return False
    except Exception as e:
      print(traceback.format_exc())
      continue

以上代码实现了商品自动提交到结算页面,这段明显比添加购物车要复杂,果然跟钱有关的都不简单。好了,到了结算页面剩下就是付款了,这个就不需要再抢了,毕竟也没人会抢着给你付钱的。

好了本文主要讲的使用Python开发个京东上抢口罩的小实例只作技术研究学习使用,请不要胡乱使用。更多关于Python模块requests,beautifulsoup4,pillow使用方法请查看下面的相关链接

(0)

相关推荐

  • Python爬虫beautifulsoup4常用的解析方法总结

    摘要 如何用beautifulsoup4解析各种情况的网页 beautifulsoup4的使用 关于beautifulsoup4,官网已经讲的很详细了,我这里就把一些常用的解析方法做个总结,方便查阅. 装载html文档 使用beautifulsoup的第一步是把html文档装载到beautifulsoup中,使其形成一个beautifulsoup对象. import requests from bs4 import BeautifulSoup url = "http://new.qq.com/o

  • Python环境Pillow( PIL )图像处理工具使用解析

    前言 由于笔者近期的研究课题与图像后处理有关,需要通过图像处理工具对图像进行变换和处理,进而生成合适的训练图像数据.该系列文章即主要记录笔者在不同的环境下进行图像处理时常用的工具和库.在 Python 环境下,对图像的处理笔者主要使用 Pillow 库,主要操作包括对图像的读取.存储和变换等.实际应用中,Pillow 中提供的 Image 模块适合对图像整体进行变换处理操作. 注:以下介绍仅包括对应模块和函数的基础用法,故而在介绍时省略了部分参数和选项,更完备的用法和介绍可参考 Pillow 的

  • Python爬虫实现使用beautifulSoup4爬取名言网功能案例

    本文实例讲述了Python爬虫实现使用beautifulSoup4爬取名言网功能.分享给大家供大家参考,具体如下: 爬取名言网top10标签对应的名言,并存储到mysql中,字段(名言,作者,标签) #! /usr/bin/python3 # -*- coding:utf-8 -*- from urllib.request import urlopen as open from bs4 import BeautifulSoup import re import pymysql def find_

  • python图像处理模块Pillow的学习详解

    今天抽空学习了一下之前了解过的pillow库,以前看到的记得这个库可以给图片上加文字加数字,还可以将图片转化成字符画,不过一直没有找时间去学习一下这个模块,由于放假不用训练,所以就瞎搞了一下 0.工欲善其事,必先利其器 关于pillow库的安装有几种方式 0.使用pip安装 $ pip install pillow 1.使用easy_install $ easy_install pillow 2.通过pycharm安装 1.学习并使用pillow库 #导入模块 from PIL import I

  • python3第三方爬虫库BeautifulSoup4安装教程

    Python3安装第三方爬虫库BeautifulSoup4,供大家参考,具体内容如下 在做Python3爬虫练习时,从网上找到了一段代码如下: #使用第三方库BeautifulSoup,用于从html或xml中提取数据 from bs4 import BeautifulSoup 自己实践后,发现出现了错误,如下所示:    以上错误提示是说没有发现名为"bs4"的模块.即"bs4"模块未安装.    进入Python安装目录,以作者IDE为例,    控制台提示第三

  • python爬虫开发之使用python爬虫库requests,urllib与今日头条搜索功能爬取搜索内容实例

    使用python爬虫库requests,urllib爬取今日头条街拍美图 代码均有注释 import re,json,requests,os from hashlib import md5 from urllib.parse import urlencode from requests.exceptions import RequestException from bs4 import BeautifulSoup from multiprocessing import Pool #请求索引页 d

  • Python使用requests xpath 并开启多线程爬取西刺代理ip实例

    我就废话不多说啦,大家还是直接看代码吧! import requests,random from lxml import etree import threading import time angents = [ "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)", "Mozilla/4.0 (compati

  • Python Pillow.Image 图像保存和参数选择方式

    保存时代码如下: figure_corp = figure.crop( (32*rate/2, 32*rate/2, 32-32*rate/2, 32-32*rate/2)) figure.save('save_picture/picture.jpg',quality=95,subsampling=0) figure_corp.save('save_picture/picture_crop.jpg',quality=95,subsampling=0) 其中quality数值会影响图片的质量(1最

  • python3解析库BeautifulSoup4的安装配置与基本用法

    前言 Beautiful Soup是python的一个HTML或XML的解析库,我们可以用它来方便的从网页中提取数据,它拥有强大的API和多样的解析方式. Beautiful Soup的三个特点: Beautiful Soup提供一些简单的方法和python式函数,用于浏览,搜索和修改解析树,它是一个工具箱,通过解析文档为用户提供需要抓取的数据 Beautiful Soup自动将转入稳定转换为Unicode编码,输出文档转换为UTF-8编码,不需要考虑编码,除非文档没有指定编码方式,这时只需要指

  • python3 pillow模块实现简单验证码

    本文实例为大家分享了python3 pillow模块验证码的具体代码,供大家参考,具体内容如下 直接放代码吧,该写的注释基本都写了 # -*- coding: utf-8 -*- # __author__: Pad0y from PIL import Image, ImageDraw, ImageFont from random import choice, randint, randrange import string # 候选字符集,大小写字母+数字 chrs = string.ascii

  • python使用beautifulsoup4爬取酷狗音乐代码实例

    这篇文章主要介绍了python使用beautifulsoup4爬取酷狗音乐代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 小编经常在网上听一些音乐但是有一些网站好多音乐都是付费下载的正好我会点爬虫技术,空闲时间写了一份,截止4月底没有问题的,会下载到当前目录,只要按照bs4库就好, 安装方法:pip install beautifulsoup4 完整代码如下:双击就能直接运行 from bs4 import BeautifulSoup

  • python3使用Pillow、tesseract-ocr与pytesseract模块的图片识别的方法

    1.安装Pillow pip install Pillow 2.安装tesseract-ocr github地址: https://github.com/tesseract-ocr/tesseract 或本地下载地址:https://www.jb51.net/softs/538925.html windows: The latest installer can be downloaded here: tesseract-ocr-setup-3.05.01.exe and tesseract-oc

  • Python 3 使用Pillow生成漂亮的分形树图片

    该程序通过绘制树干(最初是树:后来是树枝)并递归地添加树来绘制"树". 使用Pillow. 利用递归函数绘制分形树(fractal tree),分形几何学的基本思想:客观事物具有自相似的层次结构,局部与整体在形态.功能.信息.时间.空间等方面具有统计意义上的相似性,成为自相似性.自相似性是指局部是整体成比例缩小的性质. 版本:Python 3 # Adapted from http://rosettacode.org/wiki/Fractal_tree#Python # to para

  • python爬虫开发之使用Python爬虫库requests多线程抓取猫眼电影TOP100实例

    使用Python爬虫库requests多线程抓取猫眼电影TOP100思路: 查看网页源代码 抓取单页内容 正则表达式提取信息 猫眼TOP100所有信息写入文件 多线程抓取 运行平台:windows Python版本:Python 3.7. IDE:Sublime Text 浏览器:Chrome浏览器 1.查看猫眼电影TOP100网页原代码 按F12查看网页源代码发现每一个电影的信息都在"<dd></dd>"标签之中. 点开之后,信息如下: 2.抓取单页内容 在浏

  • Python实现图片裁剪的两种方式(Pillow和OpenCV)

    在这篇文章里我们聊一下Python实现图片裁剪的两种方式,一种利用了Pillow,还有一种利用了OpenCV.两种方式都需要简单的几行代码,这可能也就是现在Python那么流行的原因吧. 首先,我们有一张原始图片,如下图所示: 原始图片 然后,我们利用OpenCV对其进行裁剪,代码如下所示: import cv2 img = cv2.imread("./data/cut/thor.jpg") print(img.shape) cropped = img[0:128, 0:512] #

  • python Pillow图像处理方法汇总

    这篇文章主要介绍了python Pillow图像处理方法汇总,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 Pillow中文文档:https://pillow-cn.readthedocs.io/zh_CN/latest/handbook/tutorial.html 安装:pip install pillow 操作图像: #!/usr/bin/env python3 # _*_ coding utf-8 _*_ __author__ = 'nx

随机推荐