PHP封装的远程抓取网站图片并保存功能类

本文实例讲述了PHP封装的远程抓取网站图片并保存功能类。分享给大家供大家参考,具体如下:

<?php
/**
 * 一个用于抓取图片的类
 *
 * @package default
 * @author WuJunwei
 */
class download_image
{
  public $save_path;         //抓取图片的保存地址
  //抓取图片的大小限制(单位:字节) 只抓比size比这个限制大的图片
  public $img_size=0;
  //定义一个静态数组,用于记录曾经抓取过的的超链接地址,避免重复抓取
  public static $a_url_arr=array();
  /**
   * @param String $save_path  抓取图片的保存地址
   * @param Int  $img_size   抓取图片的保存地址
   */
  public function __construct($save_path,$img_size)
  {
    $this->save_path=$save_path;
    $this->img_size=$img_size;
  }
  /**
   * 递归下载抓取首页及其子页面图片的方法 ( recursive 递归)
   *
   * @param  String $capture_url 用于抓取图片的网址
   *
   */
  public function recursive_download_images($capture_url)
  {
    if (!in_array($capture_url,self::$a_url_arr))  //没抓取过
    {
      self::$a_url_arr[]=$capture_url;  //计入静态数组
    } else  //抓取过,直接退出函数
    {
      return;
    }
    $this->download_current_page_images($capture_url); //下载当前页面的所有图片
    //用@屏蔽掉因为抓取地址无法读取导致的warning错误
    $content=@file_get_contents($capture_url);
    //匹配a标签href属性中?之前部分的正则
    $a_pattern = "|<a[^>]+href=['\" ]?([^ '\"?]+)['\" >]|U";
    preg_match_all($a_pattern, $content, $a_out, PREG_SET_ORDER);
    $tmp_arr=array(); //定义一个数组,用于存放当前循环下抓取图片的超链接地址
    foreach ($a_out as $k => $v)
    {
      /**
       * 去除超链接中的 空'','#','/'和重复值
       * 1: 超链接地址的值 不能等于当前抓取页面的url, 否则会陷入死循环
       * 2: 超链接为''或'#','/'也是本页面,这样也会陷入死循环,
       * 3: 有时一个超连接地址在一个网页中会重复出现多次,如果不去除,会对一个子页面进行重复下载)
       */
      if ( $v[1] && !in_array($v[1],self::$a_url_arr) &&!in_array($v[1],array('#','/',$capture_url) ) )
      {
        $tmp_arr[]=$v[1];
      }
    }
    foreach ($tmp_arr as $k => $v)
    {
      //超链接路径地址
      if ( strpos($v, 'http://')!==false ) //如果url包含http://,可以直接访问
      {
        $a_url = $v;
      }else  //否则证明是相对地址, 需要重新拼凑超链接的访问地址
      {
        $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);
        $a_url=$domain_url.$v;
      }
      $this->recursive_download_images($a_url);
    }
  }
  /**
   * 下载当前网页下的所有图片
   *
   * @param  String $capture_url 用于抓取图片的网页地址
   * @return Array  当前网页上所有图片img标签url地址的一个数组
   */
  public function download_current_page_images($capture_url)
  {
    $content=@file_get_contents($capture_url);  //屏蔽warning错误
    //匹配img标签src属性中?之前部分的正则
    $img_pattern = "|<img[^>]+src=['\" ]?([^ '\"?]+)['\" >]|U";
    preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);
    $photo_num = count($img_out);
    //匹配到的图片数量
    echo '<h1>'.$capture_url . "共找到 " . $photo_num . " 张图片</h1>";
    foreach ($img_out as $k => $v)
    {
      $this->save_one_img($capture_url,$v[1]);
    }
  }
  /**
   * 保存单个图片的方法
   *
   * @param String $capture_url  用于抓取图片的网页地址
   * @param String $img_url    需要保存的图片的url
   *
   */
  public function save_one_img($capture_url,$img_url)
  {
    //图片路径地址
    if ( strpos($img_url, 'http://')!==false )
    {
      // $img_url = $img_url;
    }else
    {
      $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);
      $img_url=$domain_url.$img_url;
    }
    $pathinfo = pathinfo($img_url);  //获取图片路径信息
    $pic_name=$pathinfo['basename'];  //获取图片的名字
    if (file_exists($this->save_path.$pic_name)) //如果图片存在,证明已经被抓取过,退出函数
    {
      echo $img_url . '<span style="color:red;margin-left:80px">该图片已经抓取过!</span><br/>';
      return;
    }
    //将图片内容读入一个字符串
    $img_data = @file_get_contents($img_url);  //屏蔽掉因为图片地址无法读取导致的warning错误
    if ( strlen($img_data) > $this->img_size )  //下载size比限制大的图片
    {
      $img_size = file_put_contents($this->save_path . $pic_name, $img_data);
      if ($img_size)
      {
        echo $img_url . '<span style="color:green;margin-left:80px">图片保存成功!</span><br/>';
      } else
      {
        echo $img_url . '<span style="color:red;margin-left:80px">图片保存失败!</span><br/>';
      }
    } else
    {
      echo $img_url . '<span style="color:red;margin-left:80px">图片读取失败!</span><br/>';
    }
  }
} // END
set_time_limit(120);   //设置脚本的最大执行时间 根据情况设置
$download_img=new download_image('E:/images/',0);  //实例化下载图片对象
$download_img->recursive_download_images('http://www.oschina.net/');   //递归抓取图片方法
//$download_img->download_current_page_images($_POST['capture_url']);   //只抓取当前页面图片方法
?>

更多关于PHP相关内容感兴趣的读者可查看本站专题:《php socket用法总结》、《php字符串(string)用法总结》、《PHP数学运算技巧总结》、《php面向对象程序设计入门教程》、《PHP数组(Array)操作技巧大全》、《PHP数据结构与算法教程》、《php程序设计算法总结》及《PHP网络编程技巧总结》

希望本文所述对大家PHP程序设计有所帮助。

(0)

相关推荐

  • PHP抓取、分析国内视频网站的视频信息工具类

    使用方法: 复制代码 代码如下: require_once "VideoUrlParser.class.php";$url = "http://v.youku.com/v_show/id_XMjkwMzc0Njg4.html";$info = VedioUrlParser::parse($url);echo $info; 说明:调用该工具php文件VideoUrlParser.class.php,$url变量后面的字符串为视频页的地址,然后使用echo输出变量$in

  • PHP 抓取新浪读书频道的小说并生成txt电子书的代码

    复制代码 代码如下: /* Author: Yang Yu <yangyu@sina.cn> */ //想看什么电子书,先去新浪读书搜索,然后填入对应的参数即可 //http://vip.book.sina.com.cn/ //电子书参数 $array_book[0] = 38884; //小说id $array_book[1] = 22172; //章节起始id $array_book[2] = 32533; //章节结束id $array_book[3] = '中国特种部队生存实录:狼牙'

  • thinkphp 抓取网站的内容并且保存到本地的实例详解

    thinkphp 抓取网站的内容并且保存到本地的实例详解 我需要写这么一个例子,到电子课本网下载一本电子书. 电子课本网的电子书,是把书的每一页当成一个图片,然后一本书就是有很多张图片,我需要批量的进行下载图片操作. 下面是代码部分: public function download() { $http = new \Org\Net\Http(); $url_pref = "http://www.dzkbw.com/books/rjb/dili/xc7s/"; $localUrl =

  • 使用PHP curl模拟浏览器抓取网站信息

    官方解释curl是一个利用URL语法在命令行方式下工作的文件传输工具.curl是一个利用URL语法在命令行方式下工作的文件传输工具.它支持很多协议:FTP, FTPS, HTTP, HTTPS, GOPHER, TELNET, DICT, FILE 以及 LDAP.curl同样支持HTTPS认证,HTTP POST方法, HTTP PUT方法, FTP上传, kerberos认证, HTTP上传, 代理服务器, cookies, 用户名/密码认证, 下载文件断点续传,上载文件断点续传, http

  • php抓取网站图片并保存的实现方法

    php如何实现抓取网页图片,相较于手动的粘贴复制,使用小程序要方便快捷多了,喜欢编程的人总会喜欢制作一些简单有用的小软件,最近就参考了网上一个php抓取图片代码,封装了一个php远程抓取图片的类,测试了一下,效果还不错分享给大家,代码如下: 以上就是为大家分享的php抓取网站图片并保存的实现方法,希望对大家的学习有所帮助.

  • php抓取页面的几种方法详解

    在 做一些天气预报或者RSS订阅的程序时,往往需要抓取非本地文件,一般情况下都是利用php模拟浏览器的访问,通过http请求访问url地址, 然后得到html源代码或者xml数据,得到数据我们不能直接输出,往往需要对内容进行提取,然后再进行格式化,以更加友好的方式显现出来.下面简单说一下php抓取页面的几种方法及原理:一. PHP抓取页面的主要方法:1. file()函数    2. file_get_contents()函数  3. fopen()->fread()->fclose()模式 

  • PHP实现抓取HTTPS内容

    最近在研究Hacker News API时遇到一个HTTPS问题.因为所有的Hacker News API都是通过加密的HTTPS协议访问的,跟普通的HTTP协议不同,当使用PHP里的函数 file_get_contents() 来获取API里提供的数据时,出现错误,使用的代码是这样的: <?php$data = file_get_contents("https://hacker-news.firebaseio.com/v0/topstories.json?print=pretty&quo

  • PHP实现的抓取小说网站内容功能示例

    本文实例讲述了PHP实现的抓取小说网站内容功能.分享给大家供大家参考,具体如下: 爬取免费内容,弄到手机,听书,妥妥的. ini_set('user_agent','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; .NET CLR 2.0.50727; .NET CLR 3.0.04506.30; GreenBrowser)'); ini_set('max_execution_time', '0'); $base = 'https://www

  • php抓取页面与代码解析 推荐

    得到数据我们不能直接输出,往往需要对内容进行提取,然后再进行格式化,以更加友好的方式显现出来.下面先简单说一下本文的主要内容: 一. PHP抓取页面的主要方法: 1. file()函数 2. file_get_contents()函数 3. fopen()->fread()->fclose()模式 4.curl方式 5. fsockopen()函数 socket模式 6. 使用插件(如:http://sourceforge.net/projects/snoopy/) 二.PHP解析html或x

  • php抓取并保存网站图片的实现代码

    此程序实现了网页源代码捕获,图片链接获取.分析.并将同样的图片链接合并功能,实现了图片抓取功能.利用php强大的网络内容处理函数将指定的网站上的所有图片抓取下来,保存在当前目录下,以下为代码: <?php /*完成网页内容捕获功能*/ function get_img_url($site_name){ $site_fd = fopen($site_name, "r"); $site_content = ""; while (!feof($site_fd)) {

随机推荐