Python实现验证码识别

大致介绍  

在python爬虫爬取某些网站的验证码的时候可能会遇到验证码识别的问题,现在的验证码大多分为四类:

    1、计算验证码

        2、滑块验证码

    3、识图验证码

    4、语音验证码

  这篇博客主要写的就是识图验证码,识别的是简单的验证码,要想让识别率更高,识别的更加准确就需要花很多的精力去训练自己的字体库。

  识别验证码通常是这几个步骤:

    1、灰度处理

    2、二值化

    3、去除边框(如果有的话)

    4、降噪

    5、切割字符或者倾斜度矫正

    6、训练字体库

    7、识别

  这6个步骤中前三个步骤是基本的,4或者5可根据实际情况选择是否需要,并不一定切割验证码,识别率就会上升很多有时候还会下降

  这篇博客不涉及训练字体库的内容,请自行搜索。同样也不讲解基础的语法。

  用到的几个主要的python库: Pillow(python图像处理库)、OpenCV(高级图像处理库)、pytesseract(识别库)

灰度处理&二值化

  灰度处理,就是把彩色的验证码图片转为灰色的图片。

  二值化,是将图片处理为只有黑白两色的图片,利于后面的图像处理和识别

  在OpenCV中有现成的方法可以进行灰度处理和二值化,处理后的效果:

  代码:

# 自适应阀值二值化
def _get_dynamic_binary_image(filedir, img_name):
 filename = './out_img/' + img_name.split('.')[0] + '-binary.jpg'
 img_name = filedir + '/' + img_name
 print('.....' + img_name)
 im = cv2.imread(img_name)
 im = cv2.cvtColor(im,cv2.COLOR_BGR2GRAY) #灰值化
 # 二值化
 th1 = cv2.adaptiveThreshold(im, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY, 21, 1)
 cv2.imwrite(filename,th1)
 return th1

去除边框

  如果验证码有边框,那我们就需要去除边框,去除边框就是遍历像素点,找到四个边框上的所有点,把他们都改为白色,我这里边框是两个像素宽

  注意:在用OpenCV时,图片的矩阵点是反的,就是长和宽是颠倒的

  代码:

# 去除边框
def clear_border(img,img_name):
 filename = './out_img/' + img_name.split('.')[0] + '-clearBorder.jpg'
 h, w = img.shape[:2]
 for y in range(0, w):
 for x in range(0, h):
  if y < 2 or y > w - 2:
  img[x, y] = 255
  if x < 2 or x > h -2:
  img[x, y] = 255

 cv2.imwrite(filename,img)
 return img

降噪

  降噪是验证码处理中比较重要的一个步骤,我这里使用了点降噪和线降噪

  线降噪的思路就是检测这个点相邻的四个点(图中标出的绿色点),判断这四个点中是白点的个数,如果有两个以上的白色像素点,那么就认为这个点是白色的,从而去除整个干扰线,但是这种方法是有限度的,如果干扰线特别粗就没有办法去除,只能去除细的干扰线

  代码:

# 干扰线降噪
def interference_line(img, img_name):
 filename = './out_img/' + img_name.split('.')[0] + '-interferenceline.jpg'
 h, w = img.shape[:2]
 # !!!opencv矩阵点是反的
 # img[1,2] 1:图片的高度,2:图片的宽度
 for y in range(1, w - 1):
 for x in range(1, h - 1):
  count = 0
  if img[x, y - 1] > 245:
  count = count + 1
  if img[x, y + 1] > 245:
  count = count + 1
  if img[x - 1, y] > 245:
  count = count + 1
  if img[x + 1, y] > 245:
  count = count + 1
  if count > 2:
  img[x, y] = 255
 cv2.imwrite(filename,img)
 return img

  点降噪的思路和线降噪的差不多,只是会针对不同的位置检测的点不一样,注释写的很清楚了

  代码:

# 点降噪
def interference_point(img,img_name, x = 0, y = 0):
 """
 9邻域框,以当前点为中心的田字框,黑点个数
 :param x:
 :param y:
 :return:
 """
 filename = './out_img/' + img_name.split('.')[0] + '-interferencePoint.jpg'
 # todo 判断图片的长宽度下限
 cur_pixel = img[x,y]# 当前像素点的值
 height,width = img.shape[:2]

 for y in range(0, width - 1):
  for x in range(0, height - 1):
  if y == 0: # 第一行
   if x == 0: # 左上顶点,4邻域
    # 中心点旁边3个点
    sum = int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])
    if sum <= 2 * 245:
     img[x, y] = 0
   elif x == height - 1: # 右上顶点
    sum = int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y + 1])
    if sum <= 2 * 245:
     img[x, y] = 0
   else: # 最上非顶点,6邻域
    sum = int(img[x - 1, y]) \
      + int(img[x - 1, y + 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])
    if sum <= 3 * 245:
     img[x, y] = 0
  elif y == width - 1: # 最下面一行
   if x == 0: # 左下顶点
    # 中心点旁边3个点
    sum = int(cur_pixel) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y - 1]) \
      + int(img[x, y - 1])
    if sum <= 2 * 245:
     img[x, y] = 0
   elif x == height - 1: # 右下顶点
    sum = int(cur_pixel) \
      + int(img[x, y - 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y - 1])

    if sum <= 2 * 245:
     img[x, y] = 0
   else: # 最下非顶点,6邻域
    sum = int(cur_pixel) \
      + int(img[x - 1, y]) \
      + int(img[x + 1, y]) \
      + int(img[x, y - 1]) \
      + int(img[x - 1, y - 1]) \
      + int(img[x + 1, y - 1])
    if sum <= 3 * 245:
     img[x, y] = 0
  else: # y不在边界
   if x == 0: # 左边非顶点
    sum = int(img[x, y - 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y - 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])

    if sum <= 3 * 245:
     img[x, y] = 0
   elif x == height - 1: # 右边非顶点
    sum = int(img[x, y - 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x - 1, y - 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y + 1])

    if sum <= 3 * 245:
     img[x, y] = 0
   else: # 具备9领域条件的
    sum = int(img[x - 1, y - 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y + 1]) \
      + int(img[x, y - 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y - 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])
    if sum <= 4 * 245:
     img[x, y] = 0
 cv2.imwrite(filename,img)
 return img

  效果:

  其实到了这一步,这些字符就可以识别了,没必要进行字符切割了,现在这三种类型的验证码识别率已经达到50%以上了

字符切割   

字符切割通常用于验证码中有粘连的字符,粘连的字符不好识别,所以我们需要将粘连的字符切割为单个的字符,在进行识别

  字符切割的思路就是找到一个黑色的点,然后在遍历与他相邻的黑色的点,直到遍历完所有的连接起来的黑色的点,找出这些点中的最高的点、最低的点、最右边的点、最左边的点,记录下这四个点,认为这是一个字符,然后在向后遍历点,直至找到黑色的点,继续以上的步骤。最后通过每个字符的四个点进行切割

  图中红色的点就是代码执行完后,标识出的每个字符的四个点,然后就会根据这四个点进行切割(图中画的有些误差,懂就好)

  但是也可以看到,m2是粘连的,代码认为他是一个字符,所以我们需要对每个字符的宽度进行检测,如果他的宽度过宽,我们就认为他是两个粘连在一起的字符,并将它在从中间切割

  确定每个字符的四个点代码:

def cfs(im,x_fd,y_fd):
 '''用队列和集合记录遍历过的像素坐标代替单纯递归以解决cfs访问过深问题
 '''

 # print('**********')

 xaxis=[]
 yaxis=[]
 visited =set()
 q = Queue()
 q.put((x_fd, y_fd))
 visited.add((x_fd, y_fd))
 offsets=[(1, 0), (0, 1), (-1, 0), (0, -1)]#四邻域

 while not q.empty():
  x,y=q.get()

  for xoffset,yoffset in offsets:
   x_neighbor,y_neighbor = x+xoffset,y+yoffset

   if (x_neighbor,y_neighbor) in (visited):
    continue # 已经访问过了

   visited.add((x_neighbor, y_neighbor))

   try:
    if im[x_neighbor, y_neighbor] == 0:
     xaxis.append(x_neighbor)
     yaxis.append(y_neighbor)
     q.put((x_neighbor,y_neighbor))

   except IndexError:
    pass
 # print(xaxis)
 if (len(xaxis) == 0 | len(yaxis) == 0):
 xmax = x_fd + 1
 xmin = x_fd
 ymax = y_fd + 1
 ymin = y_fd

 else:
 xmax = max(xaxis)
 xmin = min(xaxis)
 ymax = max(yaxis)
 ymin = min(yaxis)
 #ymin,ymax=sort(yaxis)

 return ymax,ymin,xmax,xmin

def detectFgPix(im,xmax):
 '''搜索区块起点
 '''

 h,w = im.shape[:2]
 for y_fd in range(xmax+1,w):
  for x_fd in range(h):
   if im[x_fd,y_fd] == 0:
    return x_fd,y_fd

def CFS(im):
 '''切割字符位置
 '''

 zoneL=[]#各区块长度L列表
 zoneWB=[]#各区块的X轴[起始,终点]列表
 zoneHB=[]#各区块的Y轴[起始,终点]列表

 xmax=0#上一区块结束黑点横坐标,这里是初始化
 for i in range(10):

  try:
   x_fd,y_fd = detectFgPix(im,xmax)
   # print(y_fd,x_fd)
   xmax,xmin,ymax,ymin=cfs(im,x_fd,y_fd)
   L = xmax - xmin
   H = ymax - ymin
   zoneL.append(L)
   zoneWB.append([xmin,xmax])
   zoneHB.append([ymin,ymax])

  except TypeError:
   return zoneL,zoneWB,zoneHB

 return zoneL,zoneWB,zoneHB

  分割粘连字符代码:

# 切割的位置
  im_position = CFS(im)

  maxL = max(im_position[0])
  minL = min(im_position[0])

  # 如果有粘连字符,如果一个字符的长度过长就认为是粘连字符,并从中间进行切割
  if(maxL > minL + minL * 0.7):
  maxL_index = im_position[0].index(maxL)
  minL_index = im_position[0].index(minL)
  # 设置字符的宽度
  im_position[0][maxL_index] = maxL // 2
  im_position[0].insert(maxL_index + 1, maxL // 2)
  # 设置字符X轴[起始,终点]位置
  im_position[1][maxL_index][1] = im_position[1][maxL_index][0] + maxL // 2
  im_position[1].insert(maxL_index + 1, [im_position[1][maxL_index][1] + 1, im_position[1][maxL_index][1] + 1 + maxL // 2])
  # 设置字符的Y轴[起始,终点]位置
  im_position[2].insert(maxL_index + 1, im_position[2][maxL_index])

  # 切割字符,要想切得好就得配置参数,通常 1 or 2 就可以
  cutting_img(im,im_position,img_name,1,1)

  切割粘连字符代码:

def cutting_img(im,im_position,img,xoffset = 1,yoffset = 1):
 filename = './out_img/' + img.split('.')[0]
 # 识别出的字符个数
 im_number = len(im_position[1])
 # 切割字符
 for i in range(im_number):
 im_start_X = im_position[1][i][0] - xoffset
 im_end_X = im_position[1][i][1] + xoffset
 im_start_Y = im_position[2][i][0] - yoffset
 im_end_Y = im_position[2][i][1] + yoffset
 cropped = im[im_start_Y:im_end_Y, im_start_X:im_end_X]
 cv2.imwrite(filename + '-cutting-' + str(i) + '.jpg',cropped)

识别

  识别用的是typesseract库,主要识别一行字符和单个字符时的参数设置,识别中英文的参数设置,代码很简单就一行,我这里大多是filter文件的操作

  代码:

# 识别验证码
  cutting_img_num = 0
  for file in os.listdir('./out_img'):
  str_img = ''
  if fnmatch(file, '%s-cutting-*.jpg' % img_name.split('.')[0]):
   cutting_img_num += 1
  for i in range(cutting_img_num):
  try:
   file = './out_img/%s-cutting-%s.jpg' % (img_name.split('.')[0], i)
   # 识别字符
   str_img = str_img + image_to_string(Image.open(file),lang = 'eng', config='-psm 10') #单个字符是10,一行文本是7
  except Exception as err:
   pass
  print('切图:%s' % cutting_img_num)
  print('识别为:%s' % str_img)

  最后这种粘连字符的识别率是在30%左右,而且这种只是处理两个字符粘连,如果有两个以上的字符粘连还不能识别,但是根据字符宽度判别的话也不难,有兴趣的可以试一下

  无需切割字符识别的效果:

  需要切割字符的识别效果:

  这种只是能够识别简单验证码,复杂的验证码还要靠大家了

  参考资料:

    1、https://www.jb51.net/article/141621.htm

  本来参考了挺多的资料,但是时间长了就找不到了,如果有人发现了,可以告诉我,我再添加

  使用方法:

   1、将要识别的验证码图片放入与脚本同级的img文件夹中,创建out_img文件夹
   2、python3 filename
     3、二值化、降噪等各个阶段的图片将存储在out_img文件夹中,最终识别结果会打印到屏幕上

  最后附上源码(带切割,不想要切割的就自己修改吧):

from PIL import Image
from pytesseract import *
from fnmatch import fnmatch
from queue import Queue
import matplotlib.pyplot as plt
import cv2
import time
import os

def clear_border(img,img_name):
 '''去除边框
 '''

 filename = './out_img/' + img_name.split('.')[0] + '-clearBorder.jpg'
 h, w = img.shape[:2]
 for y in range(0, w):
 for x in range(0, h):
  # if y ==0 or y == w -1 or y == w - 2:
  if y < 4 or y > w -4:
  img[x, y] = 255
  # if x == 0 or x == h - 1 or x == h - 2:
  if x < 4 or x > h - 4:
  img[x, y] = 255

 cv2.imwrite(filename,img)
 return img

def interference_line(img, img_name):
 '''
 干扰线降噪
 '''

 filename = './out_img/' + img_name.split('.')[0] + '-interferenceline.jpg'
 h, w = img.shape[:2]
 # !!!opencv矩阵点是反的
 # img[1,2] 1:图片的高度,2:图片的宽度
 for y in range(1, w - 1):
 for x in range(1, h - 1):
  count = 0
  if img[x, y - 1] > 245:
  count = count + 1
  if img[x, y + 1] > 245:
  count = count + 1
  if img[x - 1, y] > 245:
  count = count + 1
  if img[x + 1, y] > 245:
  count = count + 1
  if count > 2:
  img[x, y] = 255
 cv2.imwrite(filename,img)
 return img

def interference_point(img,img_name, x = 0, y = 0):
 """点降噪
 9邻域框,以当前点为中心的田字框,黑点个数
 :param x:
 :param y:
 :return:
 """
 filename = './out_img/' + img_name.split('.')[0] + '-interferencePoint.jpg'
 # todo 判断图片的长宽度下限
 cur_pixel = img[x,y]# 当前像素点的值
 height,width = img.shape[:2]

 for y in range(0, width - 1):
  for x in range(0, height - 1):
  if y == 0: # 第一行
   if x == 0: # 左上顶点,4邻域
    # 中心点旁边3个点
    sum = int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])
    if sum <= 2 * 245:
     img[x, y] = 0
   elif x == height - 1: # 右上顶点
    sum = int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y + 1])
    if sum <= 2 * 245:
     img[x, y] = 0
   else: # 最上非顶点,6邻域
    sum = int(img[x - 1, y]) \
      + int(img[x - 1, y + 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])
    if sum <= 3 * 245:
     img[x, y] = 0
  elif y == width - 1: # 最下面一行
   if x == 0: # 左下顶点
    # 中心点旁边3个点
    sum = int(cur_pixel) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y - 1]) \
      + int(img[x, y - 1])
    if sum <= 2 * 245:
     img[x, y] = 0
   elif x == height - 1: # 右下顶点
    sum = int(cur_pixel) \
      + int(img[x, y - 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y - 1])

    if sum <= 2 * 245:
     img[x, y] = 0
   else: # 最下非顶点,6邻域
    sum = int(cur_pixel) \
      + int(img[x - 1, y]) \
      + int(img[x + 1, y]) \
      + int(img[x, y - 1]) \
      + int(img[x - 1, y - 1]) \
      + int(img[x + 1, y - 1])
    if sum <= 3 * 245:
     img[x, y] = 0
  else: # y不在边界
   if x == 0: # 左边非顶点
    sum = int(img[x, y - 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y - 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])

    if sum <= 3 * 245:
     img[x, y] = 0
   elif x == height - 1: # 右边非顶点
    sum = int(img[x, y - 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x - 1, y - 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y + 1])

    if sum <= 3 * 245:
     img[x, y] = 0
   else: # 具备9领域条件的
    sum = int(img[x - 1, y - 1]) \
      + int(img[x - 1, y]) \
      + int(img[x - 1, y + 1]) \
      + int(img[x, y - 1]) \
      + int(cur_pixel) \
      + int(img[x, y + 1]) \
      + int(img[x + 1, y - 1]) \
      + int(img[x + 1, y]) \
      + int(img[x + 1, y + 1])
    if sum <= 4 * 245:
     img[x, y] = 0
 cv2.imwrite(filename,img)
 return img

def _get_dynamic_binary_image(filedir, img_name):
 '''
 自适应阀值二值化
 '''

 filename = './out_img/' + img_name.split('.')[0] + '-binary.jpg'
 img_name = filedir + '/' + img_name
 print('.....' + img_name)
 im = cv2.imread(img_name)
 im = cv2.cvtColor(im,cv2.COLOR_BGR2GRAY)

 th1 = cv2.adaptiveThreshold(im, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY, 21, 1)
 cv2.imwrite(filename,th1)
 return th1

def _get_static_binary_image(img, threshold = 140):
 '''
 手动二值化
 '''

 img = Image.open(img)
 img = img.convert('L')
 pixdata = img.load()
 w, h = img.size
 for y in range(h):
 for x in range(w):
  if pixdata[x, y] < threshold:
  pixdata[x, y] = 0
  else:
  pixdata[x, y] = 255

 return img

def cfs(im,x_fd,y_fd):
 '''用队列和集合记录遍历过的像素坐标代替单纯递归以解决cfs访问过深问题
 '''

 # print('**********')

 xaxis=[]
 yaxis=[]
 visited =set()
 q = Queue()
 q.put((x_fd, y_fd))
 visited.add((x_fd, y_fd))
 offsets=[(1, 0), (0, 1), (-1, 0), (0, -1)]#四邻域

 while not q.empty():
  x,y=q.get()

  for xoffset,yoffset in offsets:
   x_neighbor,y_neighbor = x+xoffset,y+yoffset

   if (x_neighbor,y_neighbor) in (visited):
    continue # 已经访问过了

   visited.add((x_neighbor, y_neighbor))

   try:
    if im[x_neighbor, y_neighbor] == 0:
     xaxis.append(x_neighbor)
     yaxis.append(y_neighbor)
     q.put((x_neighbor,y_neighbor))

   except IndexError:
    pass
 # print(xaxis)
 if (len(xaxis) == 0 | len(yaxis) == 0):
 xmax = x_fd + 1
 xmin = x_fd
 ymax = y_fd + 1
 ymin = y_fd

 else:
 xmax = max(xaxis)
 xmin = min(xaxis)
 ymax = max(yaxis)
 ymin = min(yaxis)
 #ymin,ymax=sort(yaxis)

 return ymax,ymin,xmax,xmin

def detectFgPix(im,xmax):
 '''搜索区块起点
 '''

 h,w = im.shape[:2]
 for y_fd in range(xmax+1,w):
  for x_fd in range(h):
   if im[x_fd,y_fd] == 0:
    return x_fd,y_fd

def CFS(im):
 '''切割字符位置
 '''

 zoneL=[]#各区块长度L列表
 zoneWB=[]#各区块的X轴[起始,终点]列表
 zoneHB=[]#各区块的Y轴[起始,终点]列表

 xmax=0#上一区块结束黑点横坐标,这里是初始化
 for i in range(10):

  try:
   x_fd,y_fd = detectFgPix(im,xmax)
   # print(y_fd,x_fd)
   xmax,xmin,ymax,ymin=cfs(im,x_fd,y_fd)
   L = xmax - xmin
   H = ymax - ymin
   zoneL.append(L)
   zoneWB.append([xmin,xmax])
   zoneHB.append([ymin,ymax])

  except TypeError:
   return zoneL,zoneWB,zoneHB

 return zoneL,zoneWB,zoneHB

def cutting_img(im,im_position,img,xoffset = 1,yoffset = 1):
 filename = './out_img/' + img.split('.')[0]
 # 识别出的字符个数
 im_number = len(im_position[1])
 # 切割字符
 for i in range(im_number):
 im_start_X = im_position[1][i][0] - xoffset
 im_end_X = im_position[1][i][1] + xoffset
 im_start_Y = im_position[2][i][0] - yoffset
 im_end_Y = im_position[2][i][1] + yoffset
 cropped = im[im_start_Y:im_end_Y, im_start_X:im_end_X]
 cv2.imwrite(filename + '-cutting-' + str(i) + '.jpg',cropped)

def main():
 filedir = './easy_img'

 for file in os.listdir(filedir):
 if fnmatch(file, '*.jpeg'):
  img_name = file

  # 自适应阈值二值化
  im = _get_dynamic_binary_image(filedir, img_name)

  # 去除边框
  im = clear_border(im,img_name)

  # 对图片进行干扰线降噪
  im = interference_line(im,img_name)

  # 对图片进行点降噪
  im = interference_point(im,img_name)

  # 切割的位置
  im_position = CFS(im)

  maxL = max(im_position[0])
  minL = min(im_position[0])

  # 如果有粘连字符,如果一个字符的长度过长就认为是粘连字符,并从中间进行切割
  if(maxL > minL + minL * 0.7):
  maxL_index = im_position[0].index(maxL)
  minL_index = im_position[0].index(minL)
  # 设置字符的宽度
  im_position[0][maxL_index] = maxL // 2
  im_position[0].insert(maxL_index + 1, maxL // 2)
  # 设置字符X轴[起始,终点]位置
  im_position[1][maxL_index][1] = im_position[1][maxL_index][0] + maxL // 2
  im_position[1].insert(maxL_index + 1, [im_position[1][maxL_index][1] + 1, im_position[1][maxL_index][1] + 1 + maxL // 2])
  # 设置字符的Y轴[起始,终点]位置
  im_position[2].insert(maxL_index + 1, im_position[2][maxL_index])

  # 切割字符,要想切得好就得配置参数,通常 1 or 2 就可以
  cutting_img(im,im_position,img_name,1,1)

  # 识别验证码
  cutting_img_num = 0
  for file in os.listdir('./out_img'):
  str_img = ''
  if fnmatch(file, '%s-cutting-*.jpg' % img_name.split('.')[0]):
   cutting_img_num += 1
  for i in range(cutting_img_num):
  try:
   file = './out_img/%s-cutting-%s.jpg' % (img_name.split('.')[0], i)
   # 识别验证码
   str_img = str_img + image_to_string(Image.open(file),lang = 'eng', config='-psm 10') #单个字符是10,一行文本是7
  except Exception as err:
   pass
  print('切图:%s' % cutting_img_num)
  print('识别为:%s' % str_img)

if __name__ == '__main__':
 main()

以上就是Python实现验证码识别的详细内容,更多关于Python验证码识别的资料请关注我们其它相关文章!

(0)

相关推荐

  • Python基于内置库pytesseract实现图片验证码识别功能

    这篇文章主要介绍了Python基于内置库pytesseract实现图片验证码识别功能,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 环境准备: 1.安装Tesseract模块 git文档地址:https://digi.bib.uni-mannheim.de/tesseract/ 下载后就是一个exe安装包,直接右击安装即可,安装完成之后,配置一下环境变量,编辑 系统变量里面 path,添加下面的安装路径: 2.如果您想使用其他语言,请下载相应的

  • [机器视觉]使用python自动识别验证码详解

    前言 CAPTCHA全称Completely Automated Public Turing Test to Tell Computers and Humans Apart,即全自动区分人机的图灵测试.这也是验证码诞生的主要任务.但是随着近年来大数据运算和机器视觉的发展,用机器视觉识别图像已经变得非常容易,过去用于区分人机的验证码也开始变得不再安全. 接下来就让我们从零开始,深入图像处理和算法构建,来看看使用机器视觉来识别过时的验证码( 如下所示 )究竟可以有多简单. 载入需要的程序包 & 设置

  • Python 识别12306图片验证码物品的实现示例

    1.PIL介绍以及图片分割 Python 3 安装:  pip3 install Pillow 1.1 image 模块 Image模块是在Python PIL图像处理中常见的模块,主要是用于对这个图像的基本处理,它配合open.save.convert.show-等功能使用. from PIL import Image #打开文件代表打开pycharm中的文件 im = Image.open('1.jpg') #展示图片 im.show() 1.Crop类 拷贝这个图像.如果用户想粘贴一些数据

  • python爬虫之自动登录与验证码识别

    在用爬虫爬取网站数据时,有些站点的一些关键数据的获取需要使用账号登录,这里可以使用requests发送登录请求,并用Session对象来自动处理相关Cookie. 另外在登录时,有些网站有时会要求输入验证码,比较简单的验证码可以直接用pytesser来识别,复杂的验证码可以依据相应的特征自己采集数据训练分类器. 以CSDN网站的登录为例,这里用Python的requests库与pytesser库写了一个登录函数.如果需要输入验证码,函数会首先下载验证码到本地,然后用pytesser识别验证码后登

  • Python完全识别验证码自动登录实例详解

    1.直接贴代码 #!C:/Python27 #coding=utf-8 from selenium import webdriver from selenium.webdriver.common.keys import Keys from pytesser import * from PIL import Image,ImageEnhance,ImageFilter from selenium.common.exceptions import NoSuchElementException,Tim

  • Python破解BiliBili滑块验证码的思路详解(完美避开人机识别)

    准备工作 B站登录页 https://passport.bilibili.com/login python3 pip install selenium (webdriver框架) pip install PIL (图片处理) chrome driver:http://chromedriver.storage.googleapis.com/index.html firefox driver:https://github.com/mozilla/geckodriver/releases B站的滑块验

  • Python验证码截取识别代码实例

    1.环境 python3.7 selenium webdriver PIL Image 2.下面demo是截取"去哪儿"官网的验证码 # -*- coding=utf-8 -*- # CodeDemo.py # PyCharm Slade 2019/7/20 # import selenium,os from selenium import webdriver from PIL import Image def aucthcode(coderddr): ""&quo

  • python识别验证码图片实例详解

    在编写自动化测试用例的时候,每次登录都需要输入验证码,后来想把让python自己识别图片里的验证码,不需要自己手动登陆,所以查了一下识别功能怎么实现,做一下笔记. 首选导入一些用到的库,re.Image.pytesseract.selenium.time import re # 用于正则 from PIL import Image # 用于打开图片和对图片处理 import pytesseract # 用于图片转文字 from selenium import webdriver # 用于打开网站

  • python实现验证码识别功能

    本文实例为大家分享了python实现验证码识别的具体代码,供大家参考,具体内容如下 1.通过二值化处理去掉干扰线 2.对黑白图片进行降噪,去掉那些单独的黑色像素点 3.消除边框上附着的黑色像素点 4.识别图像中的文字,去掉空格与'.' python代码: from PIL import Image from aip import AipOcr file='1-1-7' # 二值化处理,转化为黑白图片 def two_value(): for i in range(1, 5): # 打开文件夹中的

  • Python实现验证码识别

    大致介绍 在python爬虫爬取某些网站的验证码的时候可能会遇到验证码识别的问题,现在的验证码大多分为四类: 1.计算验证码       2.滑块验证码 3.识图验证码 4.语音验证码 这篇博客主要写的就是识图验证码,识别的是简单的验证码,要想让识别率更高,识别的更加准确就需要花很多的精力去训练自己的字体库. 识别验证码通常是这几个步骤: 1.灰度处理 2.二值化 3.去除边框(如果有的话) 4.降噪 5.切割字符或者倾斜度矫正 6.训练字体库 7.识别 这6个步骤中前三个步骤是基本的,4或者5

  • python图片验证码识别最新模块muggle_ocr的示例代码

    一.官方文档 https://pypi.org/project/muggle-ocr/ 二模块安装 pip install muggle-ocr # 因模块过新,阿里/清华等第三方源可能尚未更新镜像,因此手动指定使用境外源,为了提高依赖的安装速度,可预先自行安装依赖:tensorflow/numpy/opencv-python/pillow/pyyaml 三.使用代码 # 导入包 import muggle_ocr # 初始化:model_type 包含了 ModelType.OCR/Model

  • Python免费验证码识别之ddddocr识别OCR自动库实现

    目录 安装过程: 完成之后,找个参考图片 附ddddocr-验证码识别案例 总结 需要ocr识别,推荐一个Python免费的验证码识别-ddddocr 安装过程: 1.镜像安装:pip install ddddocr -i https://pypi.tuna.tsinghua.edu.cn/simple pip install ddddocr -i https://pypi.tuna.tsinghua.edu.cn/simple 2.python.exe -m pip install --upg

  • Python通用验证码识别OCR库之ddddocr验证码识别

    目录 前言 传统验证码 滑动验证码 文字点选验证码 总结 前言 相信做自动化测试的同学一定不可忽视的问题就是验证码,他几乎是一个网站登录的标配,当然,我一般是不建议在这上面浪费时间去做识别的. 举个例子,现在你的目的是进入自己家的房子,房子为了防止小偷进入于是上了一把锁.我们没必要花费力气去研究开锁技术.去找锁匠配置一把万能钥匙(让开发设置验证码的万能码),或者干脆先去上锁匠把验证码去掉(让开发暂时屏蔽验证码).严格来说识别验证码不是我们自动化测试的重点.除非你是验证码厂商的员工,破解识别验证码

  • Python通用验证码识别OCR库ddddocr的安装使用教程

    目录 前言 一.安装ddddocr 二.使用ddddocr 1. 使用举例 2. 完整代码 3. 验证码样例 4. 识别结果 三.代码说明 总结 前言 在使用自动化登录网站的时候,经常输入用户名和密码后会遇到验证码.今天介绍一款通用验证码识别 OCR库,对验证码识别彻底说拜拜,它的名字是 ddddocr(带带弟弟 OCR ).这里主要以字母数字类验证码进行说明. 项目地址:https://github.com/sml2h3/ddddocr 一.安装ddddocr 通过命令将自动安装符合自己电脑环

  • 谈谈Python进行验证码识别的一些想法

    用python加"验证码"为关键词在baidu里搜一下,可以找到很多关于验证码识别的文章.我大体看了一下,主要方法有几类:一类是通过对图片进行处理,然后利用字库特征匹配的方法,一类是图片处理后建立字符对应字典,还有一类是直接利用ocr模块进行识别.不管是用什么方法,都需要首先对图片进行处理,于是试着对下面的验证码进行分析. 一.图片处理 这个验证码中主要的影响因素是中间的曲线,首先考虑去掉图片中的曲线.考虑了两种算法: 第一种是首先取到曲线头的位置,即x=0时,黑点的位置.然后向后移动

  • Python网站验证码识别

    0x00 识别涉及技术 验证码识别涉及很多方面的内容.入手难度大,但是入手后,可拓展性又非常广泛,可玩性极强,成就感也很足. 验证码图像处理 验证码图像识别技术主要是操作图片内的像素点,通过对图片的像素点进行一系列的操作,最后输出验证码图像内的每个字符的文本矩阵. 读取图片 图片降噪 图片切割 图像文本输出 验证字符识别 验证码内的字符识别主要以机器学习的分类算法来完成,目前我所利用的字符识别的算法为KNN(K邻近算法)和SVM (支持向量机算法),后面我 会对这两个算法的适用场景进行详细描述.

  • python简单验证码识别的实现方法

    利用SVM向量机进行4位数字验证码识别 主要是思路和步骤如下: 一,素材收集 检查环境是否包含有相应的库: 1.在cmd中,通过 pip list命令查看安装的库 2.再使用pip installRequests 安装Requests库 3.再次使用pip list 命令 4.利用python获取验证码资源 编写代码:_DownloadPic.py #!/usr/bin/nev python3 #利用python从站点下载验证码图片 import requests ## 1.在 http://w

  • python简单验证码识别的实现过程

    目录 1. 环境准备 1.1 安装pillow 和 pytesseract 1.2 安装Tesseract-OCR.exe 1.3 更改pytesseract.py的ocr路径 2. 测试识别效果 3. 实战案例–实现古诗文网验证码自动识别登录 总结 1. 环境准备 1.1 安装pillow 和 pytesseract python模块库需要 pillow 和 pytesseract 这两个库,直接pip install 安装就好了. pip install pillow pip install

随机推荐