旧瓶新酒-获取网络资源即爬取下载页面内容(图片、html、css、js等)
这个java获取网络资源以前也写过不少
最近用到又重新写了一个,apache.commons.io中的例子就非常好,但是无法对请求进行详细设置
于是大部分照搬,局部替换以设置请求头
如需更加复杂的设置,可以考虑使用同为apche的httpComponents
**
```java
package boot.example;
import org.apache.commons.io.FileUtils;
import org.apache.commons.io.IOUtils;
import java.io.*;
import java.net.HttpURLConnection;
import java.net.URL;
/**
Created by wq on 2017/6/6.
*/
public class Download {
public static void main(String[] args) {
Download download = new Download();
String url = "http://img1.3lian.com/2015/w7/85/d/21.jpg";
String path1 = "E:\1.jpg";
String path2 = "E:\2.jpg";
String path3 = "E:\3.jpg";
String url2="http://www.baidu.com";
try {
download.apacheCommonsIoDownload(url, path1);
} catch (Exception e) {
e.printStackTrace();
}
try {
download.pureJavaNetDownload(url, path2);
} catch (Exception e) {
e.printStackTrace();
}
try {
download.mixedDownload(url, path3);
} catch (Exception e) {
e.printStackTrace();
}
try{
download.getContentAsString(url2);
}catch (Exception e){
e.printStackTrace();
}
}private void apacheCommonsIoDownload(String urlstr, String path) throws Exception {
apacheCommonsIoDownload(urlstr, new File(path));
}private void apacheCommonsIoDownload(String urlstr, File file) throws Exception {
FileUtils.copyURLToFile(new URL(urlstr), file);
}private void pureJavaNetDownload(String urlstr, String path) throws Exception {
pureJavaNetDownload(urlstr, new File(path));
}//无需依赖
private void pureJavaNetDownload(String urlstr, File file) throws Exception {
URL url = new URL(urlstr);
HttpURLConnection httpURLConnection = (HttpURLConnection) url.openConnection();
httpURLConnection.setRequestMethod("GET");
//有的网站屏蔽程序抓取 添加User-Agent头信息以避免403
httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0");
httpURLConnection.setConnectTimeout(10000);
httpURLConnection.setReadTimeout(10000);
// httpURLConnection.set...更多请求设置
httpURLConnection.connect();
InputStream is = httpURLConnection.getInputStream();
// 不需要设置可以直接下面 也就是org.apache.commons.io.FileUtils中copyURLToFile(URL source, File destination)的写法
// InputStream is=url.openStream();
try {
FileOutputStream fos = new FileOutputStream(file);
try {
// 照搬org.apache.commons.io.IOUtils
// IOUtils.copy(InputStream input, OutputStream output) 开始
byte[] buffer = new byte[1024 * 4];
int n;
while (-1 != (n = is.read(buffer))) {
fos.write(buffer, 0, n);
}
// IOUtils.copy(InputStream input, OutputStream output) 结束
} finally {
try {
if (is != null) {
fos.close();
}
} catch (IOException ioe) {
// ignore
}
}
} finally {
try {
if (is != null) {
is.close();
}
} catch (IOException ioe) {
// ignore
}
}
}private void mixedDownload(String urlstr, String path) throws Exception {
mixedDownload(urlstr, new File(path));
}//使用IOUtils减少代码量 弃用FileUtils以对请求进行详细设置 推荐
private void mixedDownload(String urlstr, File file) throws Exception {
URL url = new URL(urlstr);
HttpURLConnection httpURLConnection = (HttpURLConnection) url.openConnection();
httpURLConnection.setRequestMethod("GET");
httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0");
httpURLConnection.setConnectTimeout(10000);
httpURLConnection.setReadTimeout(10000);
httpURLConnection.connect();
InputStream is = httpURLConnection.getInputStream();
try {
FileOutputStream output = FileUtils.openOutputStream(file);
try {
IOUtils.copy(is, output);
} finally {
IOUtils.closeQuietly(output);
}
} finally {
IOUtils.closeQuietly(is);
}
}private void getContentAsString(String urlstr) throws Exception {
URL url = new URL(urlstr);
InputStream is=url.openStream();
ByteArrayOutputStream bos=new ByteArrayOutputStream();
IOUtils.copy(is, bos);
System.out.println(bos.toString());
}
}
旧瓶新酒-获取网络资源即爬取下载页面内容(图片、html、css、js等)的更多相关文章
- java实现多线程使用多个代理ip的方式爬取网页页面内容
项目的目录结构 核心源码: package cn.edu.zyt.spider; import java.io.BufferedInputStream; import java.io.FileInpu ...
- scrapy(四): 爬取二级页面的内容
scrapy爬取二级页面的内容 1.定义数据结构item.py文件 # -*- coding: utf-8 -*- ''' field: item.py ''' # Define here the m ...
- Scrapy爬取静态页面
Scrapy爬取静态页面 安装Scrapy框架: Scrapy是python下一个非常有用的一个爬虫框架 Pycharm下: 搜索Scrapy库添加进项目即可 终端下: #python2 sudo p ...
- UI自动化之特殊处理四(获取元素属性\爬取页面源码\常用断言)
获取元素属性\爬取页面源码\常用断言,最终目的都是为了验证我们实际结果是否等于预期结果 目录 1.获取元素属性 2.爬取页面源码 3.常用断言 1.获取元素属性 获取title:driver.titl ...
- scrapy模拟浏览器爬取验证码页面
使用selenium模块爬取验证码页面,selenium模块需要另外安装这里不讲环境的配置,我有一篇博客有专门讲ubuntn下安装和配置模拟浏览器的开发 spider的代码 # -*- coding: ...
- [Python_scrapy图片爬取下载]
welcome to myblog Dome地址 爬取某个车站的图片 item.py 中 1.申明item 的fields class PhotoItem(scrapy.Item): # define ...
- 爬取百度页面代码写入到文件+web请求过程解析
一.爬取百度页面代码写入到文件 代码示例: from urllib.request import urlopen #导入urlopen包 url="http://www.baidu.com& ...
- 使用BeautifulSoup自动爬取微信公众号图片
爬取微信分享的图片,根据不同的页面自行修改,使用BeautifulSoup爬取,自行格局HTML修改要爬取图片的位置 import re import time import requests imp ...
- Python爬取 | 唯美女生图片
这里只是代码展示,且复制后不能直接运行,需要配置一些设置才行,具体请查看下方链接介绍: Python爬取 | 唯美女生图片 from selenium import webdriver from fa ...
随机推荐
- 1 PY环境与变量
一 环境与文件形式 1.环境搭建http://jingyan.baidu.com/article/eae07827f7f2d01fec5485f7.html 2. python 则进入交互模式 ex ...
- 可见性有序性,Happens-before来搞定
写在前面 上一篇文章并发 Bug 之源有三,请睁大眼睛看清它们 谈到了可见性/原子性/有序性三个问题,这些问题通常违背我们的直觉和思考模式,也就导致了很多并发 Bug 为了解决 CPU,内存,IO 的 ...
- .Net基础篇_学习笔记_第五天_流程控制do-while循环
using System; using System.Collections.Generic; using System.Linq; using System.Text; using System.T ...
- html的表格边框为什么会这么粗?
因为默认情况下,cellspacing = 2px. 当表格的 border 不为 0 的时候,单元格(cell)的 border 为 1. 只有当表格的 border 设置为 0 的时候,单元格的 ...
- 小斌之SpringCloud 开发某某交易所
最近一个月都在弄某某交易所,让之前学的东西能够用上,在这里分享一下收货的东西吧 #### 简介 系统是进行了二次开发,用的是ZTuo开源框架第一个版本,节省了很多时间(坑也挺多,哈哈哈),文章结尾贴源 ...
- 百度脑图-离线版(支持Linux、Mac、Win)
免费好用的思维导图软件(在线版) 离线版:桌面版脑图是基于百度脑图的本地化版本,帮助你在没有互联网环境的情况下,依然可以使用脑图工具. 百度脑图帮助你进行思维导图,可以运用于学习.写作.沟通.演讲.管 ...
- Vue学习之todolist组件拆分
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8&quo ...
- [Leetcode] 第337题 打家劫舍III
一.题目描述 在上次打劫完一条街道之后和一圈房屋后,小偷又发现了一个新的可行窃的地区.这个地区只有一个入口,我们称之为“根”. 除了“根”之外,每栋房子有且只有一个“父“房子与之相连.一番侦察之后,聪 ...
- mybatis无法给带有下划线属性赋值问题
https://blog.csdn.net/qq_33768099/article/details/69569561
- AJAX基础内容
1.什么是ajax?为什么要使用ajax? ajax是Asynchronous JavaScript and XML ,也称为创建交互式网页应用开发技术. 2.为什么采用ajax 1)通过异步交互,提 ...