python结合shell查询google关键词排名的实现代码

最近老婆大人的公司给老婆大人安排了一个根据关键词查询google网站排名的差事。老婆大人的公司是做seo的,查询的关键词及网站特别的多,看着老婆大人这么辛苦的重复着查询工作,心疼啊。所以花点时间用python写了一个根据关键词搜索网站排名的py脚本。

在写这个脚本之前,我也曾在网站搜索过关于在google查排名的脚本。很多是利用google的api。但是我测试了一下,不准。所以,自己写一个吧。

脚本内容如下:(关键词我在网站随便找了几个。以做测试使用)

#vim keyword.py
import urllib,urllib2,cookielib,re,sys,os,time,random
cj = cookielib.CookieJar()
vibramkey=['cheap+five+fingers','vibram+five+fingers']
beatskey=['beats+by+dre','beats+by+dre+cheap']
vibramweb=['vibramforshoes.com','vibramfivetoeshoes.net','vibramfivefingersshoesx.com ']
beatsweb=['beatsbydre.com','justlovebeats.com']
allweb=['vibramweb','beatsweb']
def serchkey(key,start):
    url="http://www.google.com/search?hl=en&q=%s&revid=33815775&sa=X&ei=X6CbT4GrIoOeiQfth43GAw&ved=0CIgBENUCKAY&start=%s" %(key,start)
    try:
        opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
        opener.addheaders = [('User-agent', 'Opera/9.23')]
        urllib2.install_opener(opener)
        req=urllib2.Request(url)
        response =urllib2.urlopen(req)
        content = response.read()
        f=open('google','w')
        f.write(content)
        tiqu=os.popen("grep -ioP '(?<=<cite>).*?(?=</cite>)' google|sed -r 's/(<*\/*cite>|<\/*b>)//g'").readlines()
    except:
        changeip()
    else:
        for yuming in pinpai:
                a=1
                for shouyuming in tiqu:
                    real=shouyuming.find(yuming)
                    if real>0:
                        if start==0:
                            page=1
                        elif start==10:
                            page=2
                        elif start==20:
                            page=3
                        elif start==30:
                            page=4
                        else:
                            page=5
                        lastkey=key.replace("+"," ")
                        xinxi="%s\t\t %s\t\t page%s,%s<br>\n" %(yuming,lastkey,page,a)
                        xinxifile=open('index.html','a')
                        xinxifile.write(xinxi)
                        xinxifile.close()
                    a=a+1
def changeip():
    ip=random.randint(0,2)
    de="route del -host google.com"
    add="route add -host google.com eth1:%s" %ip
    os.system(de)
    os.system(add)
    print "changip to %s" %ip
pinpaiid=0
for x in vibramkey,beatskey:
    if  pinpaiid == 0:
        pinpai=vibramweb
    elif pinpaiid == 1:
        pinpai=beatsweb
pinpaiid=pinpaiid+1
    for key in x:
        for start in 0,10,20,30,40:
            serchkey(key,start)
    changeip()
os.system("sh paiban.sh") 
#vim paiban.sh
#! /bin/bash
sort index.html -o index.html
line=`wc -l index.html|awk '{print $1}'`
yuming2=`sed -n 1p index.html|awk '{print $1}'`
for i in `seq 2 $line`
do
yuming=`sed -n "$i"p index.html|awk '{print $1}'`
if [ $yuming == $yuming2 ];then
sed -i ""$i"s/"$yuming"/\t\t/g" index.html
else
yuming2=$yuming
fi
done 

这段脚本分两部分,第一部分是python利用关键词搜索google的页面。老婆大人说只要每一个关键词的前5页就可以。所以只查询了前5页。
第二部分是将查询出来的结果进行排版。也就是最下面调用paiban.sh 所做的事情,让最终出来的结果为如下格式:

网站1        关键词1  第几页  第几名
               关键词2   第几页  第几名
             关键词3   第几页  第几名

网站2        关键词1  第几页  第几名
               关键词2   第几页  第几名
              关键词3   第几页  第几名
下面就来对程序进行讲解。

import urllib,urllib2,cookielib,re,sys,os,time,random  #加载模块
cj = cookielib.CookieJar()
vibramkey=['cheap+five+fingers','vibram+five+fingers'] #定义要查询的关键词组1,里面的单引号里面就是要查询的关键词。
beatskey=['beats+by+dre','beats+by+dre+cheap']    #同上,定义关键词组2,这个是另一组关键词。
vibramweb=['vibramforshoes.com','vibramfivetoeshoes.net','vibramfivefingersshoesx.com ']
#定义关健词组1要查询的网站
beatsweb=[' beatsbydre.com',' justlovebeats.com'] #定义关健词组2要查询的网站
allweb=['vibramweb','beatsweb']  #这里定义了一个所有网站的组,下面好调用。
def serchkey(key,start): #这里定义一个函数,key为查询的关健词,start为页面,通过google查询页面可以看出来每个页面除ads外只有十条记录,start=0时显示为第一个页面第一至第十条记录,start=10时,显示第二页的第一至十条记录,以些类推。
    url="http://www.google.com/search?hl=en&q=%s&revid=33815775&sa=X&ei=X6CbT4GrIoOeiQfth43GAw&ved=0CIgBENUCKAY&start=%s" %(key,start)  #这个定义了查询的URL
    try:
        opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
        opener.addheaders = [('User-agent', 'Opera/9.23')] #模拟浏览器访问
        urllib2.install_opener(opener)
        req=urllib2.Request(url) #用urllib2访问
        response =urllib2.urlopen(req)
        content = response.read()#这块是模拟浏览器进行访问url的页面并读取源代码
        f=open('google','w')
        f.write(content) #将读取出来的内容保存到google的一个页面里。
        tiqu=os.popen("grep -ioP '(?<=<cite>).*?(?=</cite>)' google|sed -r 's/(<*\/*cite>|<\/*b>)//g'").readlines() #这里利用了系统命令了。利用正则的零宽断言提直接取出第一到第十位的网站域名。
    except:
        changeip() #这边是怕访问过多被google封了。所以这里有一个换ip的函数,下面有定义。上面如果try失败了,就执行换ip的动作。
    else:
        for yuming in pinpai:    #循环读取要查找的网站
                a=1
                for shouyuming in tiqu:  #循环读取查找出来的网站
                    real=shouyuming.find(yuming)  #将查找出来的网站与需要查找的网站进行比对
                    if real>0:
                        if start==0:
                            page=1
                        elif start==10:
                            page=2
                        elif start==20:
                            page=3
                        elif start==30:
                            page=4
                        else:
                            page=5
         #这里的查看域名在google搜索后的哪一页。
                        lastkey=key.replace("+"," ") #将定义的关键词中间的加号去掉。
                        print yuming,lastkey,page,a
                        xinxi="%s\t\t %s\t\t 第%s页,排名%s\n" %(yuming,lastkey,page,a)
                        xinxifile=open('index.html','a')
                        xinxifile.write(xinxi)
                        xinxifile.close() #将查找出来的信息写入到index.html文件里
                    aa=a+1
def changeip():  #这里是定义查询时换ip的函数。如果机器只有一个ip那就不用这段了。
    ip=random.randint(0,10)         #随机生成0-10的数
    del="route del -host google.com"      #删除路由命令
    add="route add -host google.com eth1:%s" %ip #添加路由命令
    os.system(del)                #执行删除路由命令
    os.system(add)   #执行添加路由命令
    print "changip to %s" %ip           #打印更改路由信息
pinpaiid=0
for x in vibramkey,beatskey:     #循环所有的关键词组
    if  pinpaiid == 0:     # 对应关键词组与要查询的网站组
        pinpai=vibramweb
    elif pinpaiid == 1:
        pinpai=beatsweb
pinpaiidpinpaiid=pinpaiid+1
    for key in x:        #循环关键词组里的关键词
        for start in 0,10,20,30,40:    #定义所要查找的google的页面
            serchkey(key,start)
    changeip()              #更改ip函数。在每一组关键词查询完毕后更改ip.

以上命令执行后,我们看一下index.html文件内容。如下:

代码如下:

#cat index.html
vibramforshoes.com               cheap five fingers              page 1,rank 3
vibramfivetoeshoes.net           cheap five fingers              page 5,rank 5
vibramforshoes.com               vibram five fingers             page 1,rank 6
vibramfivetoeshoes.net           vibram five fingers             page 5,rank 10
beatsbydre.com                   beats by dre                    page 1,rank 1
justlovebeats.com                beats by dre                    page 5,rank 7
beatsbydre.com                   beats by dre cheap              page 2,rank 2
beatsbydre.com                   beats by dre cheap              page 2,rank 3
beatsbydre.com                   beats by dre cheap              page 5,rank 10

如图:

这样看很乱,那么我们如何才能达到上面所讲 一个站后面对应多个关键词的格式呢,这里我们就要用到 paiban.sh 这个小脚本了。我们把paiban.sh放在py程序的最后,当执行py程序执行完毕后,执行paiban.sh 这个paiban.sh已经加在py程序里面了,所有不需要另外执行。我这里主要看一下区别。所有在py程序里注释了。

#sh  paiban.sh
#cat index.html
beatsbydre.com          beats by dre cheap       page 2,rank 2
                 beats by dre cheap       page 2,rank 3
                 beats by dre cheap       page 5,rank 10
                 beats by dre          page 1,rank 1
justlovebeats.com        beats by dre          page 5,rank 7
vibramfivetoeshoes.net      cheap five fingers       page 5,rank 5
                 vibram five fingers       page 5,rank 10
vibramforshoes.com        cheap five fingers       page 1,rank 3
                 vibram five fingers       page 1,rank 6 

如图:

这样就能达到上面的效果了。排版也很清楚,哪个站对应哪个关键词。在第几页,第几位,一目了然。

我们也对paiban.sh这个脚本做一下解释。

#vim paiban.sh
#! /bin/bash
sort index.html -o index.html          #先把index.html文件排下序,再写入index.html
line=`wc -l index.html|awk '{print $1}'`     #统计行
yuming2=`sed -n 1p index.html|awk '{print $1}'`  #取第一行的域名 给yuming2
for i in `seq 2 $line`              #从第二行开始了取域名
do
yuming=`sed -n "$i"p index.html|awk '{print $1}'`
if [ $yuming == $yuming2 ];then
sed -i ""$i"s/"$yuming"/\t\t/g" index.html    #如果下一行域名与yuming2域名相同,就把下一行域名替换成空
else
yuming2=$yuming                  #如果不相等,就把下一行的域名给yuming2变量
fi
done 

好了。这个小脚本挺好用的,老婆大人天天在用。为她减轻了不少工作量。直夸我能干。。。,哈哈。。如果有看不明白的,欢迎加QQ讨论。QQ:410018348

(0)

相关推荐

  • python结合shell查询google关键词排名的实现代码

    最近老婆大人的公司给老婆大人安排了一个根据关键词查询google网站排名的差事.老婆大人的公司是做seo的,查询的关键词及网站特别的多,看着老婆大人这么辛苦的重复着查询工作,心疼啊.所以花点时间用python写了一个根据关键词搜索网站排名的py脚本. 在写这个脚本之前,我也曾在网站搜索过关于在google查排名的脚本.很多是利用google的api.但是我测试了一下,不准.所以,自己写一个吧. 脚本内容如下:(关键词我在网站随便找了几个.以做测试使用) #vim keyword.py impor

  • python实现百度关键词排名查询

    就是一个简单的python查询百度关键词排名的函数,以下是一些简介:1.UA随机2.操作简单方便,直接getRank(关键词,域名)就可以了3.编码转化.编码方面应该没啥问题了.4.结果丰富.不仅有排名,还有搜索结果的title,URL,快照时间,符合SEO需求5.拿来做个软件或者自己用都很方便. 功能是单线程实现,速度慢,大家可以参考修改成自己需要的. 复制代码 代码如下: #coding=utf-8 import requestsimport BeautifulSoupimport reim

  • Python查询阿里巴巴关键字排名的方法

    本文实例讲述了Python查询阿里巴巴关键字排名的方法.分享给大家供大家参考.具体如下: 这里使用python库urllib及pyquery基本东西的应用,实现阿里巴巴关键词排名的查询,其中涉及到urllib代理的设置,pyquery对html文档的解析 1. urllib 基础模块的应用,通过该类获取到url中的html文档信息,内部可以重写代理的获取方法 class ProxyScrapy(object): def __init__(self): self.proxy_robot = Pro

  • 可以查询google排名的asp源码

    以下是源码,请命名为.ASP文件. 复制代码 代码如下: <meta http-equiv="Content-Type" content="text/html; charset=gb2312">  <%  if request("action") = "1" then   word = request("word")   url = request("url")   i

  • Python封装shell命令实例分析

    本文实例讲述了Python封装shell命令的方法.分享给大家供大家参考.具体实现方法如下: # -*- coding: utf-8 -*- import os import subprocess import signal import pwd import sys class MockLogger(object): '''模拟日志类.方便单元测试.''' def __init__(self): self.info = self.error = self.critical = self.deb

  • 提高在google中排名的重点

    Google的排名运算法则主要使用了两个部分,第一个部分是它的文字内容匹配系统.Google使用该系统来发现与搜索者键入的搜索词相关的网页:第二部分也是排名运算法则中最最重要的部分,就是Google的专利网页级别技术. (title)中出现的关键字给予较高的权值,所以你应当确保在你网站的标题标签中包含了最重要的关键词,即应围绕你最重要的关键词来决定网页标题的内容.不过网页的标题不可过长,一般最好在35到40个字符之间. Google将从一个网页的头几行文字内容来生成对一个网站的描述.也就是说,你

  • Google关键词广告基础知识问答

    1.google关键词广告是什么?  答:google官方对这个广告的英文描述叫adwords,它是显示在搜索结果页面右侧的网站链接广告.它是属于CPC(cost-per-click)收费--按点击次数收费的网络广告类型. 2.google关键词广告和搜索结果页面左侧网站排名是否有关系?  答:没有任何关系,搜索结果页面左侧网站排名是完全按照google自身的算法而的出来的,无法进行人工干预的(当然,可以利用它的算法的规则来提高网站排名,这部分内容不在本文讨论范围之类):而关键词广告是人工添加的

  • python+influxdb+shell编写区域网络状况表

    本文为大家分享了python+influxdb+shell写一个区域网络状况表,供大家参考,具体内容如下 shell脚本部分: ex:就是ping 各个目的ip10个包,然后获取丢包率和平均延迟时间,在Linux上设置为定时任务,每分钟执行一次.他会把数据写到influxdb服务器上面去,表示hk_vnloss和hk_vn01rtt,字段是loss和rtt,其他各区域的都是类似. python代码部分: 1.在Django项目的setting里面,配置influxdb数据库连接: ALLOWED

  • python结合shell自动创建kafka的连接器实战教程

    目录 环境 安装连接oracle的python包 获取oracle表信息 去掉多余部分 shell 脚本处理表信息文件 增强版处理表信息脚本 环境 cat /etc/redhat-release CentOS Linux release 7.5.1804 (Core) [root@localhost ~]# uname -a Linux localhost.localdomain 3.10.0-862.el7.x86_64 #1 SMP Fri Apr 20 16:44:24 UTC 2018

  • python通过socket查询whois的方法

    本文实例讲述了python通过socket查询whois的方法.分享给大家供大家参考.具体实现方法如下: import socket s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) s.connect(('whois.networksolutions.com', 43)) s.send('sina.com.cn \r\n') while 1: v = s.recv(1024) if v == '' or v == None: break

随机推荐