下载网站图片代码并且解析乱码

代码如下:

// 获取网站对象
ServletContext context = this.getServletContext();
// 获取网站资源
String path = context.getRealPath("/imgs/人.jpg");
File file = new File(path);
System.out.println(file);
// 设置响应头通知浏览器数据的处理方式
response.setHeader("content-disposition",
"attachment;filename="+
URLEncoder.encode(file.getName(),"utf-8")); // 处理文件名乱码  指定图片格式为下载
// 指定字节输入流对象
FileInputStream in = new FileInputStream(file);
// 获取字节输出流对象
ServletOutputStream out = response.getOutputStream();
// 边读边写
byte [] b = new byte[1024];
int len = 0;
while((len = in.read(b)) != -1){
out.write(b, 0, len);
}
// 释放资源
in.close();

(0)

相关推荐

  • 下载网站图片代码并且解析乱码

    复制代码 代码如下: // 获取网站对象 ServletContext context = this.getServletContext(); // 获取网站资源 String path = context.getRealPath("/imgs/人.jpg"); File file = new File(path); System.out.println(file); // 设置响应头通知浏览器数据的处理方式 response.setHeader("content-dispo

  • vbs结合wget 实现下载网站图片

    vbs 函数过程: 1. 调用wget: 下载网站所有页面到本脚本目录 -- 2. 扫描本脚本目录中所有文件 -- 3. 读取本脚本目录中的所有网页,匹配图片 URL 地址 -- 4. 保存所有图片 URL 地址到 url-img.txt 文件 -- 5. 调用wget: 下载 url-img.txt 指定的图片到本脚本 img 目录 -- ' wget_img.vbs Call Main() Sub Main() ' CMD 模式 If Not (LCase(Right(WScript.Ful

  • Python爬取知乎图片代码实现解析

    首先,需要获取任意知乎的问题,只需要你输入问题的ID,就可以获取相关的页面信息,比如最重要的合计有多少人回答问题. 问题ID为如下标红数字 编写代码,下面的代码用来检测用户输入的是否是正确的ID,并且通过拼接URL去获取该问题下面合计有多少答案. import requests import re import pymongo import time DATABASE_IP = '127.0.0.1' DATABASE_PORT = 27017 DATABASE_NAME = 'sun' cli

  • Android中使用七牛云存储进行图片上传下载的实例代码

    Android开发中的图片存储本来就是比较耗时耗地的事情,而使用第三方的七牛云,便可以很好的解决这些后顾之忧,最近我也是在学习七牛的SDK,将使用过程在这记录下来,方便以后使用. 先说一下七牛云的存储原理,上面这幅图片是官方给出的原理图,表述当然比较清晰了. 可以看出,要进行图片上传的话可以分为五大步: 1. 客户端用户登录到APP的账号系统里面: 2. 客户端上传文件之前,需要向业务服务器申请七牛的上传凭证,这个凭证由业务服务器使用七牛提供的服务端SDK生成: 3. 客户端使用七牛提供的客户端

  • 利用Python2下载单张图片与爬取网页图片实例代码

    前言 一直想好好学习一下Python爬虫,之前断断续续的把Python基础学了一下,悲剧的是学的没有忘的快.只能再次拿出来滤了一遍,趁热打铁,通过实例来实践下,下面这篇文章主要介绍了关于Python2下载单张图片与爬取网页的相关内容,分享出来供大家参考学习,下面话不多说了,来一起看看详细的介绍吧. 一.需求分析 1.知道图片的url地址,将图片下载到本地. 2.知道网页地址,将图片列表中的图片全部下载到本地. 二.准备工作 1.开发系统:win7 64位. 2.开发环境:python2.7. 3

  • Node.js实现爬取网站图片的示例代码

    目录 涉及知识点 cheerio简介 什么是cheerio ? 安装cheerio 准备工作 核心代码 示例截图 涉及知识点 开发一个小爬虫,涉及的知识点如下所示: https模块,主要是用户获取网络资源,如:网页源码,图片资源等. cheerio模块,主要用于解析html源码,并可访问,查找html节点内容. fs模块,主要用于文件的读写操作,如保存图片,日志等. 闭包,主要是对于异步操作,对象的隔离保护. cheerio简介 什么是cheerio ? cheerio是为服务器特别定制的,快速

  • java实现爬虫爬网站图片的实例代码

    第一步,实现 LinkQueue,对url进行过滤和存储的操作 import java.util.ArrayList; import java.util.Collections; import java.util.HashSet; import java.util.List; import java.util.Set; public class LinkQueue { // 已访问的 url 集合 private static Set<String> visitedUrl = Collecti

  • Java 获取网站图片的示例代码

    目录 前提 一.新建Maven项目,导入Jsoup环境依赖 二.代码编写 心得: 前提 最近我的的朋友浏览一些网站,看到好看的图片,问我有没有办法不用手动一张一张保存图片! 我说用Jsoup丫! 测试网站 打开开发者模式(F12),找到对应图片的链接,在互联网中,每一张图片就是一个链接! 一.新建Maven项目,导入Jsoup环境依赖 <groupId>org.jsoup</groupId> <artifactId>jsoup</artifactId> &l

  • 解析php下载远程图片函数 可伪造来路

    gurl 要下载的图片地址$rfurl 来路.如果目标图像做了防盗链设置,可以绕过.$filename 下载图片保存的文件名,相对路径,不要用realpath$gcookie 调整cookie 伪造的cookie$JumpCount 跳转计数$maxtime 最大次数调用方法:DownImageKeep("http://www.baidu.com/img/baidu_jgylogo2.gif","http://baidu.com","a.gif"

  • php中强制下载文件的代码(解决了IE下中文文件名乱码问题)

    中间遇到一个问题是提交的中文文件名直接放到header里在IE下会变成乱码,解决方法是将文件名先urlencode一下再放入header,如下. 复制代码 代码如下: <?php $file_name = urlencode($_REQUEST['filename']); header("Pragma: public"); header("Expires: 0"); header("Cache-Control: must-revalidate, po

随机推荐