PHP实现抓取百度搜索结果页面【相关搜索词】并存储到txt文件示例

本文实例讲述了PHP实现抓取百度搜索结果页面【相关搜索词】并存储到txt文件。分享给大家供大家参考,具体如下:

一、百度搜索关键词【我们】

【我们】搜索链接

https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=0&rsv_idx=1&tn=baidu&wd=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&rsv_pq=ab33cfeb000086a2&rsv_t=7c65vT3KzHCNfGYOIn%2FDSS%2BOQUiCycaspxWzSOBfkHYpgRIPKMI74WIi8K8&rqlang=cn&rsv_enter=1&rsv_sug3=1

搜索结果部分源代码:

<div id="rs"><div class="tt">相关搜索</div><table cellpadding="0"><tbody><tr><th><a href="/s?wd=%E6%B8%B8%E6%88%8F%E8%84%9A%E6%9C%AC%E4%B8%80%E8%88%AC%E9%83%BD%E5%9C%A8%E5%93%AA%E6%89%BE&rsf=4562&rsp=0&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >游戏脚本一般都在哪找</a></th><td></td><th><a href="/s?wd=%E8%84%9A%E6%9C%AC%E6%80%8E%E4%B9%88%E5%86%99&rsf=4562&rsp=1&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >脚本怎么写</a></th><td></td><th><a href="/s?wd=%E8%84%9A%E6%9C%AC%E6%98%AF%E4%BB%80%E4%B9%88%E6%84%8F%E6%80%9D&rsf=4562&rsp=2&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >脚本是什么意思</a></th></tr><tr><th><a href="/s?wd=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6app&rsf=4562&rsp=3&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >我们app</a></th><td></td><th><a href="/s?wd=%E6%89%8B%E6%9C%BA%E8%84%9A%E6%9C%AC%E5%88%B6%E4%BD%9C&rsf=4562&rsp=4&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >手机脚本制作</a></th><td></td><th><a href="/s?wd=%E6%89%8B%E6%9C%BA%E8%84%9A%E6%9C%AC%E5%A4%A7%E5%85%A8&rsf=4562&rsp=5&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >手机脚本大全</a></th></tr><tr><th><a href="/s?wd=%E8%84%9A%E6%9C%AC%E6%B8%B8%E6%88%8F%E5%88%B6%E4%BD%9C%E5%A4%A7%E5%B8%88&rsf=4562&rsp=6&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >脚本游戏制作大师</a></th><td></td><th><a href="/s?wd=%E6%B8%B8%E6%88%8F%E8%84%9A%E6%9C%AC%E5%88%B6%E4%BD%9C%E6%95%99%E7%A8%8B&rsf=4562&rsp=7&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >游戏脚本制作教程</a></th><td></td><th><a href="/s?wd=%E8%84%9A%E6%9C%AC%E7%B2%BE%E7%81%B5&rsf=4562&rsp=8&f=1&oq=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&ie=utf-8&rsv_idx=1&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM&rqlang=cn&rs_src=0&rsv_pq=c1ff4bdb000208b4&rsv_t=a1f2OCsgS6vkkBcxsdqfBfehkXoR65%2FtFlpSI30%2F%2FMmk6jQJEukZbv30XaM" rel="external nofollow" >脚本精灵</a></th></tr></tbody></table></div>

二、抓取并保存本地

源代码

index.php:

<form action="index.php" method="post">
<input name="q" type="text" />
<input type="submit" value="Get Keywords" />
</form>
<?php
header('Content-Type:text/html;charset=gbk');
class ComBaike{
  private $o_String=NULL;
  public function __construct(){
    include('cls.StringEx.php');
    $this->o_String=new StringEx();
  }
  public function getItem($word){
    $url = "http://www.baidu.com/s?wd=".$word;
    // 构造包头,模拟浏览器请求
    $header = array (
      "Host:www.baidu.com",
      "Content-Type:application/x-www-form-urlencoded",//post请求
      "Connection: keep-alive",
      'Referer:http://www.baidu.com',
      'User-Agent: Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; BIDUBrowser 2.6)'
    );
    $ch = curl_init ();
    curl_setopt ( $ch, CURLOPT_URL, $url );
    curl_setopt ( $ch, CURLOPT_HTTPHEADER, $header );
    curl_setopt ( $ch, CURLOPT_RETURNTRANSFER, 1 );
    $content = curl_exec ( $ch );
    if ($content == FALSE) {
    echo "error:" . curl_error ( $ch );
    }
    curl_close ( $ch );
    //输出结果echo $content;
    $this->o_String->string=$content;
    $s_begin='<div id="rs">';
    $s_end='</div>';
    $summary=$this->o_String->getPart($s_begin,$s_end);
    $s_begin='<div class="tt">相关搜索</div><table cellpadding="0"><tr><th>';
    $s_end='</th></tr></table></div>';
    $content=$this->o_String->getPart($s_begin,$s_end);
    return $content;
  }
  public function __destruct(){
    unset($this->o_String);
  }
}
if($_POST){
  $com = new ComBaike();
  $q = $_POST['q'];
  $str = $com->getItem($q); //获取搜索内容
  $pat = '/<a(.*?)href="(.*?)" rel="external nofollow" (.*?)>(.*?)<\/a>/i';
  preg_match_all($pat, $str, $m);
  //print_r($m[4]); 链接文字
  $con = implode(",", $m[4]);
  //生成文件夹
  $dates = date("Ymd");
  $path="./Search/".$dates."/";
  if(!is_dir($path)){
    mkdir($path,0777,true);
  }
  //生成文件
  $file = fopen($path.iconv("UTF-8","GBK",$q).".txt",'w');
  if(fwrite($file,$con)){
    echo $con;
    echo '<script>alert("success")</script>';
  }else{
    echo '<script>alert("error")</script>';
  }
  fclose($file);
}
?>

cls.StringEx.php:

<?php
header('Content-Type: text/html; charset=UTF-8');
class StringEx{
  public $string='';
  public function __construct($string=''){
    $this->string=$string;
  }
  public function pregGetPart($s_begin,$s_end){
    $s_begin==preg_quote($s_begin);
    $s_begin=str_replace('/','\/',$s_begin);
    $s_end=preg_quote($s_end);
    $s_end=str_replace('/','\/',$s_end);
    $pattern='/'.$s_begin.'(.*?)'.$s_end.'/';
    $result=preg_match($pattern,$this->string,$a_match);
    if(!$result){
      return $result;
    }else{
      return isset($a_match[1])?$a_match[1]:'';
    }
  }
  public function strstrGetPart($s_begin,$s_end){
    $string=strstr($this->string,$s_begin);
    $string=strstr($string,$s_end,true);
    $string=str_replace($s_begin,'',$string);
    $string=str_replace($s_end,'',$string);
    return $string;
  }
  public function getPart($s_begin,$s_end){
    $result=$this->pregGetPart($s_begin,$s_end);
    if(!$result){
      $result=$this->strstrGetPart($s_begin,$s_end);
    }
    return $result;
  }
}
?>

更多关于PHP相关内容感兴趣的读者可查看本站专题:《php curl用法总结》、《PHP网络编程技巧总结》、《PHP数组(Array)操作技巧大全》、《php字符串(string)用法总结》、《PHP数据结构与算法教程》及《PHP中json格式数据操作技巧汇总》

希望本文所述对大家PHP程序设计有所帮助。

(0)

相关推荐

  • PHP统计nginx访问日志中的搜索引擎抓取404链接页面路径

    我在服务器上有每天切割nginx日志的习惯,所以针对每天各大搜索引擎来访,总能记录一些404页面信息,传统上我只是偶尔分析下日志,但是对于很多日志信息的朋友,人工来筛选可能不是一件容易的事情,这不我个人自己慢慢研究了一点点,针对谷歌.百度.搜搜.360搜索.宜搜.搜狗.必应等搜索引擎的404访问生成为一个txt文本文件,直接上代码test.php. 复制代码 代码如下: <?php //访问test.php?s=google $domain='http://www.jb51.net'; $spi

  • PHP的cURL库功能简介 抓取网页、POST数据及其他

    无论是你想从从一个链接上取部分数据,或是取一个XML文件并把其导入数据库,那怕就是简单的获取网页内容,反应釜cURL 是一个功能强大的PHP库.本文主要讲述如果使用这个PHP库. 启用 cURL 设置 首先,我们得先要确定我们的PHP是否开启了这个库,你可以通过使用php_info()函数来得到这一信息. 复制代码 代码如下: <?php phpinfo(); ?> 如果你可以在网页上看到下面的输出,那么表示cURL库已被开启. 如果你看到的话,那么你需要设置你的PHP并开启这个库.如果你是在

  • PHP抓取淘宝商品的用户晒单评论+图片+搜索商品列表实例

    说起来做这个功能还真是一时好奇.前段时间在做一个淘客网站的时候,想到是否能抓取到淘宝商品的买家秀呢?经过一番折腾发现,淘宝商品用户评价信息是通过Ajax来调取的,通过嗅探网址发现,评论数据的请求接口是: https://rate.tmall.com/list_detail_rate.htm?itemId=524394294771&spuId=341564036&sellerId=100414600&order=3&currentPage=1&append=0&

  • PHP网页抓取之抓取百度贴吧邮箱数据代码分享

    百度贴吧大家都经常逛,去逛百度贴吧的时候,经常会看到楼主分享一些资源,要求留下邮箱,楼主才给发. 对于一个热门的帖子,留下的邮箱数量是非常多的,楼主需要一个一个的去复制那些回复的邮箱,然后再粘贴发送邮件,不是被折磨死就是被累死.无聊至极写了一个抓取百度贴吧邮箱数据的程序,需要的拿走. 程序实现了一键抓取帖子全部邮箱和分页抓取邮箱两个功能,界面懒得做了,效果如下: 老规矩,直接贴源码 <?php $url2=""; $page=""; if($_GET['url

  • PHP实现采集抓取淘宝网单个商品信息

    调用淘宝的数据可以使用淘宝提供的api,如果只需调用淘宝商品图片名称等公开信息在自己网站上,使用php中的 file_get_contents 函数实现即可. 思路: file_get_contents(url) 该函数根据 url 如 http://www.baidu.com 将该网页内容(源码)以字符串形式输出(一个整字符串),然后配合preg_match,preg_replace等这些正则表达式操作就可以实现获取该url特定div,img等信息了.当然前题是淘宝在单个商品页面的结构是固定的

  • php下通过curl抓取yahoo boss 搜索结果的实现代码

    1.编写curl类,进行网页内容抓取 复制代码 代码如下: class CurlUtil { private $curl; private $timeout = 10; /** * 初始化curl对象 */ public function __construct() { $this->curl = curl_init(); curl_setopt($this->curl, CURLOPT_RETURNTRANSFER, 1); curl_setopt($this->curl, CURLO

  • 利用PHP抓取百度阅读的方法示例

    前言 这篇文章主要介绍的是,如何利用PHP抓取百度阅读的方法,下面话不多说,来一起看看吧. 抓取方法如下 首先在浏览器里打开阅读页面,查看源代码后发现小说的内容并不是直接写在页面里的,也就是说小说的内容是通过异步加载而来的. 于是将chrome的开发者工具切到network一栏,刷新阅读页面,主要关注的是XHR和script两个分类下. 经过排查,发现在script分类下有个jsonp请求比较像是小说内容,请求的地址是 http://wenku.baidu.com/content/49422a3

  • PHP实现抓取百度搜索结果页面【相关搜索词】并存储到txt文件示例

    本文实例讲述了PHP实现抓取百度搜索结果页面[相关搜索词]并存储到txt文件.分享给大家供大家参考,具体如下: 一.百度搜索关键词[我们] [我们]搜索链接 https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=0&rsv_idx=1&tn=baidu&wd=%E8%84%9A%E6%9C%AC%E4%B9%8B%E5%AE%B6&rsv_pq=ab33cfeb000086a2&rsv_t=7c65vT3KzHCNf

  • Python实现抓取百度搜索结果页的网站标题信息

    比如,你想采集标题中包含"58同城"的SERP结果,并过滤包含有"北京"或"厦门"等结果数据. 该Python脚本主要是实现以上功能. 其中,使用BeautifulSoup来解析HTML,可以参考我的另外一篇文章:Windows8下安装BeautifulSoup 代码如下: 复制代码 代码如下: __author__ = '曾是土木人' # -*- coding: utf-8 -*- #采集SERP搜索结果标题 import urllib2 fr

  • 零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

    百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件. 项目内容: 用Python写的百度贴吧的网络爬虫. 使用方法: 新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行. 程序功能: 将贴吧中楼主发布的内容打包txt存储到本地. 原理解释: 首先,先浏览一下某一条贴吧,点击只看楼主并点击第二页之后url发生了一点变化,变成了: http://tieba.baidu.com/p/2296712428?see_lz=1&pn=

  • C#.Net基于正则表达式抓取百度百家文章列表的方法示例

    本文实例讲述了C#.Net基于正则表达式抓取百度百家文章列表的方法.分享给大家供大家参考,具体如下: 工作之余,学习了一下正则表达式,鉴于实践是检验真理的唯一标准,于是便写了一个利用正则表达式抓取百度百家文章的例子,具体过程请看下面源码: 一.获取百度百家网页内容 public List<string[]> GetUrl() { try { string url = "http://baijia.baidu.com/"; WebRequest webRequest = We

  • python抓取百度首页的方法

    本文实例讲述了python抓取百度首页的方法.分享给大家供大家参考.具体实现方法如下: import urllib def downURL(url,filename): try: fp=urllib.urlopen(url) except: print('download error') return 0 op=open(filename,'wb') while 1: s=fp.read() if not s: break op.write(s) fp.close() op.close() re

  • 零基础写python爬虫之抓取百度贴吧代码分享

    这里就不给大家废话了,直接上代码,代码的解释都在注释里面,看不懂的也别来问我,好好学学基础知识去! 复制代码 代码如下: # -*- coding: utf-8 -*- #--------------------------------------- #   程序:百度贴吧爬虫 #   版本:0.1 #   作者:why #   日期:2013-05-14 #   语言:Python 2.7 #   操作:输入带分页的地址,去掉最后面的数字,设置一下起始页数和终点页数. #   功能:下载对应页

  • Python抓取百度查询结果的方法

    本文实例讲述了Python抓取百度查询结果的方法.分享给大家供大家参考.具体实现方法如下: #win python 2.7.x import re,sys,urllib,codecs xh = urllib.urlopen("http://www.baidu.com/s?q1=123&rn=100").read().decode('utf-8') rc = re.compile(r'<td class=f><h3 class="t">

  • Node.js编写爬虫的基本思路及抓取百度图片的实例分享

    其实写爬虫的思路十分简单: 按照一定的规律发送 HTTP 请求获得页面 HTML 源码(必要时需要加上一定的 HTTP 头信息,比如 cookie 或 referer 之类) 利用正则匹配或第三方模块解析 HTML 代码,提取有效数据 将数据持久化到数据库中 但是真正写起这个爬虫来,我还是遇到了很多的问题(和自己的基础不扎实也有很大的关系,node.js 并没有怎么认真的学过).主要还是 node.js 的异步和回调知识没有完全掌握,导致在写代码的过程中走了很多弯路. 模块化 模块化对于 nod

随机推荐