旧瓶新酒-获取网络资源即爬取下载页面内容(图片、html、css、js等)
这个java获取网络资源以前也写过不少
最近用到又重新写了一个,apache.commons.io中的例子就非常好,但是无法对请求进行详细设置
于是大部分照搬,局部替换以设置请求头
如需更加复杂的设置,可以考虑使用同为apche的httpComponents
**
```java
package boot.example;
import org.apache.commons.io.FileUtils;
import org.apache.commons.io.IOUtils;
import java.io.*;
import java.net.HttpURLConnection;
import java.net.URL;
/**
Created by wq on 2017/6/6.
*/
public class Download {
public static void main(String[] args) {
Download download = new Download();
String url = "http://img1.3lian.com/2015/w7/85/d/21.jpg";
String path1 = "E:\1.jpg";
String path2 = "E:\2.jpg";
String path3 = "E:\3.jpg";
String url2="http://www.baidu.com";
try {
download.apacheCommonsIoDownload(url, path1);
} catch (Exception e) {
e.printStackTrace();
}
try {
download.pureJavaNetDownload(url, path2);
} catch (Exception e) {
e.printStackTrace();
}
try {
download.mixedDownload(url, path3);
} catch (Exception e) {
e.printStackTrace();
}
try{
download.getContentAsString(url2);
}catch (Exception e){
e.printStackTrace();
}
}private void apacheCommonsIoDownload(String urlstr, String path) throws Exception {
apacheCommonsIoDownload(urlstr, new File(path));
}private void apacheCommonsIoDownload(String urlstr, File file) throws Exception {
FileUtils.copyURLToFile(new URL(urlstr), file);
}private void pureJavaNetDownload(String urlstr, String path) throws Exception {
pureJavaNetDownload(urlstr, new File(path));
}//无需依赖
private void pureJavaNetDownload(String urlstr, File file) throws Exception {
URL url = new URL(urlstr);
HttpURLConnection httpURLConnection = (HttpURLConnection) url.openConnection();
httpURLConnection.setRequestMethod("GET");
//有的网站屏蔽程序抓取 添加User-Agent头信息以避免403
httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0");
httpURLConnection.setConnectTimeout(10000);
httpURLConnection.setReadTimeout(10000);
// httpURLConnection.set...更多请求设置
httpURLConnection.connect();
InputStream is = httpURLConnection.getInputStream();
// 不需要设置可以直接下面 也就是org.apache.commons.io.FileUtils中copyURLToFile(URL source, File destination)的写法
// InputStream is=url.openStream();
try {
FileOutputStream fos = new FileOutputStream(file);
try {
// 照搬org.apache.commons.io.IOUtils
// IOUtils.copy(InputStream input, OutputStream output) 开始
byte[] buffer = new byte[1024 * 4];
int n;
while (-1 != (n = is.read(buffer))) {
fos.write(buffer, 0, n);
}
// IOUtils.copy(InputStream input, OutputStream output) 结束
} finally {
try {
if (is != null) {
fos.close();
}
} catch (IOException ioe) {
// ignore
}
}
} finally {
try {
if (is != null) {
is.close();
}
} catch (IOException ioe) {
// ignore
}
}
}private void mixedDownload(String urlstr, String path) throws Exception {
mixedDownload(urlstr, new File(path));
}//使用IOUtils减少代码量 弃用FileUtils以对请求进行详细设置 推荐
private void mixedDownload(String urlstr, File file) throws Exception {
URL url = new URL(urlstr);
HttpURLConnection httpURLConnection = (HttpURLConnection) url.openConnection();
httpURLConnection.setRequestMethod("GET");
httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0");
httpURLConnection.setConnectTimeout(10000);
httpURLConnection.setReadTimeout(10000);
httpURLConnection.connect();
InputStream is = httpURLConnection.getInputStream();
try {
FileOutputStream output = FileUtils.openOutputStream(file);
try {
IOUtils.copy(is, output);
} finally {
IOUtils.closeQuietly(output);
}
} finally {
IOUtils.closeQuietly(is);
}
}private void getContentAsString(String urlstr) throws Exception {
URL url = new URL(urlstr);
InputStream is=url.openStream();
ByteArrayOutputStream bos=new ByteArrayOutputStream();
IOUtils.copy(is, bos);
System.out.println(bos.toString());
}
}
旧瓶新酒-获取网络资源即爬取下载页面内容(图片、html、css、js等)的更多相关文章
- java实现多线程使用多个代理ip的方式爬取网页页面内容
项目的目录结构 核心源码: package cn.edu.zyt.spider; import java.io.BufferedInputStream; import java.io.FileInpu ...
- scrapy(四): 爬取二级页面的内容
scrapy爬取二级页面的内容 1.定义数据结构item.py文件 # -*- coding: utf-8 -*- ''' field: item.py ''' # Define here the m ...
- Scrapy爬取静态页面
Scrapy爬取静态页面 安装Scrapy框架: Scrapy是python下一个非常有用的一个爬虫框架 Pycharm下: 搜索Scrapy库添加进项目即可 终端下: #python2 sudo p ...
- UI自动化之特殊处理四(获取元素属性\爬取页面源码\常用断言)
获取元素属性\爬取页面源码\常用断言,最终目的都是为了验证我们实际结果是否等于预期结果 目录 1.获取元素属性 2.爬取页面源码 3.常用断言 1.获取元素属性 获取title:driver.titl ...
- scrapy模拟浏览器爬取验证码页面
使用selenium模块爬取验证码页面,selenium模块需要另外安装这里不讲环境的配置,我有一篇博客有专门讲ubuntn下安装和配置模拟浏览器的开发 spider的代码 # -*- coding: ...
- [Python_scrapy图片爬取下载]
welcome to myblog Dome地址 爬取某个车站的图片 item.py 中 1.申明item 的fields class PhotoItem(scrapy.Item): # define ...
- 爬取百度页面代码写入到文件+web请求过程解析
一.爬取百度页面代码写入到文件 代码示例: from urllib.request import urlopen #导入urlopen包 url="http://www.baidu.com& ...
- 使用BeautifulSoup自动爬取微信公众号图片
爬取微信分享的图片,根据不同的页面自行修改,使用BeautifulSoup爬取,自行格局HTML修改要爬取图片的位置 import re import time import requests imp ...
- Python爬取 | 唯美女生图片
这里只是代码展示,且复制后不能直接运行,需要配置一些设置才行,具体请查看下方链接介绍: Python爬取 | 唯美女生图片 from selenium import webdriver from fa ...
随机推荐
- CF996B World Cup 思维 第十四 *
World Cup time limit per test 1 second memory limit per test 256 megabytes input standard input outp ...
- XML序列化CDATA
不可避免的遇到对接需要使用XML文档的第三方系统,某些节点内容特殊,序列化时需特殊处理,解决方案是实现IXmlSerializable接口. /// <summary> /// Perso ...
- 微信小程序 自定义组件 多列选择器 对象数组 ObjectArray 自关联 三级联动
使用方法 在 Page.json 注册组件 { "usingComponents": { "address-picker": "/component/ ...
- Android Activity启动耗时统计方案
作者:林基宗 Activity的启动速度是很多开发者关心的问题,当页面跳转耗时过长时,App就会给人一种非常笨重的感觉.在遇到某个页面启动过慢的时候,开发的第一直觉一般是onCreate执行速度太慢了 ...
- git-基础命令使用
1. 创建版本库 什么是版本库你?版本库有名仓库,英文名repository,你可以简单理解成一个目录,这个目录里面的所有文件都可以被git管理起来,每个文件的修改.删除.git都能跟踪,以便 ...
- oracle用imp导入dmp文件
oracle命令行登录 sqlplus 用户名/密码 创建用户 create user 用户 identified by 密码 ; 创建表空间 create tablespace 表空间名 dataf ...
- FreeSql (十六)分页查询
IFreeSql fsql = new FreeSql.FreeSqlBuilder() .UseConnectionString(FreeSql.DataType.MySql, "Data ...
- Android开发必看知识
奇艺高清UI界面源代码 http://www.eoeandroid.com/thread-160824-1-1.html 搜索关键字飞入飞出效果 http://www.eoeandroid.com/t ...
- python根据搜索词下载百度图片
# coding=utf-8 """根据搜索词下载百度图片""" import re import urllib import os def ...
- python+selenium调用chrome打开网址获取内容
目录 1,安装selenium和配置chromedriver 2,调用chromedriver打开网页获取网页内容 3,模拟登陆百度云 附录(webdriver版本兼容列表) 通过selenium库, ...