用python登录带弱图片验证码的网站

上一篇介绍了使用python模拟登陆网站,但是登陆的网站都是直接输入账号及密码进行登陆,现在很多网站为了加强用户安全性和提高反爬虫机制都会有包括字符、图片、手机验证等等各式各样的验证码。图片验证码就是其中一种,而且识别难度越来越大,人为都比较难识别。本篇我们简单介绍一下使用python登陆带弱图片验证码的网站。

图片验证码

一般都通过加干扰线、粘连或扭曲等方式来增加强度。

登陆

我们选择一个政务网站(图片验证码的强度较低)。

点击个人用户登录

访问网站首页以后我们发现需要先点击个人用户登陆,且元素没有name、id登标识不好获取,所以我们直接执行里面的onClick方法

# 新建selenium浏览器对象,后面是geckodriver.exe下载后本地路径
browser = webdriver.Firefox()

url = 'http://xxx.gov.cn/'

# 浏览器访问登录页面
browser.get(url)

# 等待3s用于加载脚本文件
browser.implicitly_wait(3)

# 点击个人登陆
browser.execute_script('showpersonlogin();')

获取图片验证码

我们可以通过save_screenshot截图,然后找到验证码元素,获取元素位置然后在截图的基础上裁剪出验证码。

# 找到图片验证码元素
img = browser.find_element_by_id('imgCode')

location = img.location

size = img.size

left = location['x']

top = location['y']

right = left + size['width']

bottom = top + size['height']

# 按照验证码的长宽,切割验证码
image_obj = loginPage.crop((left, top, right, bottom))

image_obj.save('code.png')

识别并登陆

由于该网站的验证码比较简单可以直接用pytesseract模块的image_to_string方法

orcCode = pytesseract.image_to_string('code.png')

# 输入用户名
username = browser.find_element_by_id('personaccount')
username.send_keys('账号')

# 输入密码
password = browser.find_element_by_id('personpassword')
password.send_keys('密码')

# 输入验证码
code = browser.find_element_by_id('captcha1')
code.send_keys(orcCode)

# 执行登录
browser.execute_script('personlogin();')

# 关闭浏览器
# browser.quit()

识别较复杂验证码算法

网上找的算法,先将图片转为灰度图,然后进行二值化处理(将图像上的像素点的灰度值设置为0或255。如灰度大于等于阈值的像素,用255表示。否则为0。),再去噪(8邻域降噪,判断8个邻域的黑色数量个数)。

ocrImage.py:

import pytesseract
from PIL import Image
from collections import defaultdict

# 获取图片中像素点数量最多的像素
def get_threshold(image):
  pixel_dict = defaultdict(int)

  # 像素及该像素出现次数的字典
  rows, cols = image.size
  for i in range(rows):
    for j in range(cols):
      pixel = image.getpixel((i, j))
      pixel_dict[pixel] += 1

  count_max = max(pixel_dict.values()) # 获取像素出现出多的次数
  pixel_dict_reverse = {v: k for k, v in pixel_dict.items()}
  threshold = pixel_dict_reverse[count_max] # 获取出现次数最多的像素点

  return threshold

# 按照阈值进行二值化处理
# threshold: 像素阈值
def get_bin_table(threshold):
  # 获取灰度转二值的映射table
  table = []
  for i in range(256):
    rate = 0.1 # 在threshold的适当范围内进行处理
    if threshold * (1 - rate) <= i <= threshold * (1 + rate):
      table.append(1)
    else:
      table.append(0)
  return table

# 去掉二值化处理后的图片中的噪声点
def cut_noise(image):
  rows, cols = image.size # 图片的宽度和高度
  change_pos = [] # 记录噪声点位置

  # 遍历图片中的每个点,除掉边缘
  for i in range(1, rows - 1):
    for j in range(1, cols - 1):
      # pixel_set用来记录该店附近的黑色像素的数量
      pixel_set = []
      # 取该点的邻域为以该点为中心的九宫格
      for m in range(i - 1, i + 2):
        for n in range(j - 1, j + 2):
          if image.getpixel((m, n)) != 1: # 1为白色,0位黑色
            pixel_set.append(image.getpixel((m, n)))

      # 如果该位置的九宫内的黑色数量小于等于4,则判断为噪声
      if len(pixel_set) <= 4:
        change_pos.append((i, j))

  # 对相应位置进行像素修改,将噪声处的像素置为1(白色)
  for pos in change_pos:
    image.putpixel(pos, 1)

  return image # 返回修改后的图片

# 识别图片中的数字加字母
# 传入参数为图片路径,返回结果为:识别结果
def ocr_img(img_path):
  image = Image.open(img_path) # 打开图片文件
  imgry = image.convert('L') # 转化为灰度图

  # 获取图片中的出现次数最多的像素,即为该图片的背景
  max_pixel = get_threshold(imgry)
  # 将图片进行二值化处理
  table = get_bin_table(threshold=max_pixel)
  out = imgry.point(table, '1')

  # 去掉图片中的噪声(孤立点)
  out = cut_noise(out)

  # 仅识别图片中的数字
  # text = pytesseract.image_to_string(out, config='digits')
  # 识别图片中的数字和字母
  text = pytesseract.image_to_string(out)
  # 去掉识别结果中的特殊字符
  exclude_char_list = ' .:\\|\'\"?![],()~@#$%^&*_+-={};<>/¥'
  text = ''.join([x for x in text if x not in exclude_char_list])

  return text

ocrImage.ocr_img('data/0021.png')

其他

针对不同的图片验证码用的方法不尽相同,cv2模块也提供了很多图片的处理方法可以用于识别图片验证码。

如使用cv2的腐蚀和碰撞方法就可以对图片进行简单的处理。

干扰条件较多、识别难度大的则需要依靠机器学习来完成。

以上就是用python登录带弱图片验证码的网站的详细内容,更多关于python 登录图片验证码的网站的资料请关注我们其它相关文章!

(0)

相关推荐

  • python 制作网站筛选工具(附源码)

    一.思路 1.整体思路 2.代码思路 思路很简单,就是用python发送请求,提取响应体中的状态码加以判断,最后保存到本地txt文本中,以实现网站信息的筛选. 二.撰写代码 import time import requests import urllib3 from concurrent.futures import ThreadPoolExecutor #取源文件中的网址并且去重 def get_url(old_file): with open(old_file,'r',encoding='

  • Python 登录网站详解及实例

    Python 登录网站详解及实例 对于大部分论坛,我们想要抓取其中的帖子分析,首先需要登录,否则无法查看. 这是因为 HTTP 协议是一个无状态(Stateless)的协议,服务器如何知道当前请求连接的用户是否已经登录了呢?有两种方式: 在URI 中显式地使用 Session ID: 利用 Cookie,大概过程是登录一个网站后会在本地保留一个 Cookie,当继续浏览这个网站的时候,浏览器会把 Cookie 连同地址请求一起发送过去. Python 提供了相当丰富的模块,所以对于这种网络操作只

  • Python爬取网站图片并保存的实现示例

    先看看结果吧,去bilibili上拿到的图片=-= 第一步,导入模块 import requests from bs4 import BeautifulSoup requests用来请求html页面,BeautifulSoup用来解析html 第二步,获取目标html页面 hd = {'user-agent': 'chrome/10'} # 伪装自己是个(chrome)浏览器=-= def download_all_html(): try: url = 'https://www.bilibili

  • python爬虫使用正则爬取网站的实现

    本文章的所有代码和相关文章, 仅用于经验技术交流分享,禁止将相关技术应用到不正当途径,滥用技术产生的风险与本人无关. 本文章是自己学习的一些记录.欢迎各位大佬点评! 首先 今天是第一天写博客,感受到了博客的魅力,博客不仅能够记录每天的代码学习情况,并且可以当作是自己的学习笔记,以便在后面知识点不清楚的时候前来复习.这是第一次使用爬虫爬取网页,这里展示的是爬取豆瓣电影top250的整个过程,欢迎大家指点. 这里我只爬取了电影链接和电影名称,如果想要更加完整的爬取代码,请联系我.qq 1540741

  • python 制作网站小说下载器

    基本开发环境 · Python 3.6 · Pycharm 相关模块使用 目标网页分析 输入想看的小说内容,点击搜索 这里会返回很多结果,我只选择第一个 网页数据是静态数据,但是要搜索,是post请求,需要提价data参数,如下图所示: 然后通过解析网站数据,获取第一个小说i的详情页url即可 静态网页的获取,难度是不大的. def search():     search_url = 'http://www.xbiquge.la/modules/article/waps.php'     da

  • Python实现JS解密并爬取某音漫客网站

    首先打开网站 https://www.zymk.cn/1/37988.html 打开开发者工具 选择XHR标签页,没有找到什么 再查看一下这些图片的URL值 http://mhpic.xiaomingtaiji.net/comic/D%2F%E6%96%97%E7%A0%B4%E8%8B%8D%E7%A9%B9%E6%8B%86%E5%88%86%E7%89%88%2F20%E8%AF%9D%2F1.jpg-zymk.middle.webp 尝试搜索图片元素 发现有一个js文件,打开搜索 发现这

  • Python爬虫设置Cookie解决网站拦截并爬取蚂蚁短租的问题

    我们在编写Python爬虫时,有时会遇到网站拒绝访问等反爬手段,比如这么我们想爬取蚂蚁短租数据,它则会提示"当前访问疑似黑客攻击,已被网站管理员设置为拦截"提示,如下图所示.此时我们需要采用设置Cookie来进行爬取,下面我们进行详细介绍.非常感谢我的学生承峰提供的思想,后浪推前浪啊! 一. 网站分析与爬虫拦截 当我们打开蚂蚁短租搜索贵阳市,反馈如下图所示结果. 我们可以看到短租房信息呈现一定规律分布,如下图所示,这也是我们要爬取的信息. 通过浏览器审查元素,我们可以看到需要爬取每条租

  • 对python抓取需要登录网站数据的方法详解

    scrapy.FormRequest login.py class LoginSpider(scrapy.Spider): name = 'login_spider' start_urls = ['http://www.login.com'] def parse(self, response): return [ scrapy.FormRequest.from_response( response, # username和password要根据实际页面的表单的name字段进行修改 formdat

  • Python爬虫自动化获取华图和粉笔网站的错题(推荐)

    这篇博客对于考公人或者其他用华图或者粉笔做题的人比较友好,通过输入网址可以自动化获取华图以及粉笔练习的错题. 粉笔网站 我们从做过的题目组中获取错题 打开某一次做题组,我们首先进行抓包看看数据在哪里 我们发现现在数据已经被隐藏,事实上数据在这两个包中: https://tiku.fenbi.com/api/xingce/questions https://tiku.fenbi.com/api/xingce/solutions 一个为题目的一个为解析的.此url要通过传入一个题目组参数才能获取到当

  • python爬虫实现爬取同一个网站的多页数据的实例讲解

    对于一个网站的图片.文字音视频等,如果我们一个个的下载,不仅浪费时间,而且很容易出错.Python爬虫帮助我们获取需要的数据,这个数据是可以快速批量的获取.本文小编带领大家通过python爬虫获取获取总页数并更改url的方法,实现爬取同一个网站的多页数据. 一.爬虫的目的 从网上获取对你有需要的数据 二.爬虫过程 1.获取url(网址). 2.发出请求,获得响应. 3.提取数据. 4.保存数据. 三.爬虫功能 可以快速批量的获取想要的数据,不用手动的一个个下载(图片.文字音视频等) 四.使用py

  • python如何爬取动态网站

    python有许多库可以让我们很方便地编写网络爬虫,爬取某些页面,获得有价值的信息!但许多时候,爬虫取到的页面仅仅是一个静态的页面,即网页 的源代码,就像在浏览器上的"查看网页源代码"一样.一些动态的东西如javascript脚本执行后所产生的信息,是抓取不到的,这里暂且先给出这么一 些方案,可用于python爬取js执行后输出的信息. 1.两种基本的解决方案 1.1 用dryscrape库动态抓取页面 js脚本是通过浏览器来执行并返回信息的,所以,抓取js执行后的页面,一个最直接的方

  • 使用Python中的cookielib模拟登录网站

    前面简单提到了 Python 模拟登录的程序,但是没写清楚,这里再补上一个带注释的 Python 模拟登录的示例程序.简单说一下流程:先用cookielib获取cookie,再用获取到的cookie,进入需要登录的网站. # -*- coding: utf-8 -*- # !/usr/bin/python import urllib2 import urllib import cookielib import re auth_url = 'http://www.nowamagic.net/' h

  • python模拟登陆网站的示例

    使用已有cookie登陆 使用浏览器登陆,获取浏览器中的cookie信息,来进行登陆. 我们以博客园为例,先登录博客园账号.我们访问随笔列表,在控制台我们可以看到我们登陆后浏览器的cookie 剔除一些数据统计及分析的cookie,剩下的就是登陆可能需要的.CNBlogsCookie和.Cnblogs.AspNetCore.Cookies # _ga google分析 cookie # UM_distinctid 友盟cookie # CNZZxxx CNZZcookie # __utma,__

随机推荐