JAVA: java第三方包学习之jsoup

使用python写爬虫的人,应该都听过beautifulsoup4这个包,用来解析HTML很方便。现在介绍一个类似于beautifulsoup4的java第三方库,功能类似。jsoup 是一个解析 HTML 的第三方 java 库,它提供了一套非常方便的 API,可使用 DOM,CSS 以及类 jQuery 的操作方法来取出和操作数据。

简介

jsoup 是一个解析 HTML 的第三方 java 库,它提供了一套非常方便的 API,可使用 DOM,CSS 以及类 jQuery 的操作方法来取出和操作数据。
jsoup 这个包类似与 python 中流行的 HTML 解析包 Beautifulsoup4。
jsoup 实现了 WHATWG HTML5 规范,能够与现代浏览器解析成相同的DOM。其解析器能够尽最大可能从你提供的HTML文档来创建一个干净的解析结果,无论HTML的格式是否完整。比如它可以处理:没有关闭的标签,比如:

<p>Lorem <p>Ipsum parses to <p>Lorem</p> <p>Ipsum</p>

隐式标签,创建可靠的文档结构(html标签包含head 和 body,在head只出现恰当的元素)。
官网地址在这里, 对应的中文文档在这里,以及 jar 包的下载地址

Maven  依赖包:

<dependency>
    <groupId>org.jsoup</groupId>
    <artifactId>jsoup</artifactId>
    <version>1.10.2</version>
</dependency>

一个文档的对象模型

  • 文档由多个ElementsTextNodes组成 ;
  • 其继承结构如下:Document继承Element继承Node, TextNode继承 Node.
  • 一个Element包含一个子节点集合,并拥有一个父Element。他们还提供了一个唯一的子元素过滤列表。

获取 Document 对象

jsoup 可以从包括字符串、URL 地址以及本地文件来加载 HTML 文档,并生成 Document 对象实例。

// (1)从字符串中获取
String html = "<html><head><title>First parse</title></head>"
  + "<body><p>Parsed HTML into a doc.</p></body></html>";
Document doc1 = Jsoup.parse(html);
// (2)从 URL 直接加载 HTML 文档
// get方法
Document doc2 = Jsoup.connect("http://www.ikeepstudying.com").get(); 
// post方法
Document doc = Jsoup.connect("http://ikeepstudying.com")
  .data("query", "Java")
  .userAgent("Mozilla")
  .cookie("auth", "token")
  .timeout(3000)
  .post();
 
  // (3)从文件中加载 HTML 文档
File input = new File("D:/test.html"); 
Document doc = Jsoup.parse(input,"UTF-8","http://www.ikeepstudying.com/");

常用到的方法如下:

public static Connection connect(String url)
public static Document parse(String html, String baseUri)
public static Document parse(URL url,  int timeoutMillis) throws IOException
public static Document parse(File in,  String charsetName) throws IOException
public static Document parse(InputStream in, String charsetName,  String baseUrl)  throws IOException

parse 方法能够将输入的 HTML 解析为一个新的文档 (Document),只要解析的不是空字符串,就能返回一个结构合理的文档,其中包含(至少) 一个head和一个body元素。
上面的参数 baseUri的作用是,如果要解析的html中存在相对路径,那么就根据这个参数变成绝对路径, 如果不需要可以传入一个空字符串。

注:通过connect方法来获得 html 源码,有的时候会遇到乱码的问题,这个时候该怎么办么?方法里有一个 parse 方法,传入参数 InputStream、charsetName以及baseUrl,所有可以这样解决:

String url = "http://xxxxxxx";
Document document = Jsoup.parse(new URL(url).openStream(), "GBK", url);// 以 gbk 编码为栗。

Jsoup的强项是解析html,当然了,它能处理一些简单情况,遇到复杂的情形还是使用 httpClient 这个包吧,你值得拥有!

解析并提取 HTML 元素

使用传统的操作DOM的方式

举个栗子

Element content = doc.getElementById("content");
Elements links = content.getElementsByTag("a");
Elements mx = content.getElementsByClass("help");

:doc 为 Document 对象。
还有写常用的方法,比如

public Elements getElementsByAttributeValue(String key,  String value)
public Element attr(String attributeKey,  String attributeValue)
public Elements getAllElements()
// 获得孩子节点中所有的文本拼接
public String text()
// 获得节点的内部html
public String html()

Document 对象还有一个方法

// 获取标题
public String title()
// 获得某节点的html,这个方法继承自Node类,所以Element类也有该方法
public String outerHtml()

选择器

在元素检索方面,jsoup 的选择器简直无所不能。
jsoup 选择器很多,这里仅仅举出几个栗子,

Elements links = doc.select("a[href]"); // 具有href属性的a标签
Elements pngs = doc.select("img[src$=.png]");// src属性以.png结尾的img标签
Element masthead = doc.select("div.masthead").first();// class属性为masthead的div标签中的第一个
Elements resultLinks = doc.select("h3.r > a"); // class属性为r的h3标签的直接子a标签
Elements resultLinks = doc.select(img[src~=(?i)\.(png|jpe?g)])

Selector选择器概述

tagname: 通过标签查找元素,比如:a
ns|tag: 通过标签在命名空间查找元素,比如:可以用 fb|name 语法来查找 <fb:name> 元素
#id: 通过ID查找元素,比如:#logo
.class: 通过class名称查找元素,比如:.masthead
[attribute]: 利用属性查找元素,比如:[href]
[^attr]: 利用属性名前缀来查找元素,比如:可以用[^data-] 来查找带有HTML5 Dataset属性的元素
[attr=value]: 利用属性值来查找元素,比如:[width=500]
[attr^=value], [attr$=value], [attr*=value]: 利用匹配属性值开头、结尾或包含属性值来查找元素,比如:[href*=/path/]
[attr~=regex]: 利用属性值匹配正则表达式来查找元素,比如: img[src~=(?i)\.(png|jpe?g)]
*: 这个符号将匹配所有元素

Selector选择器组合使用

el#id: 元素+ID,比如: div#logo
el.class: 元素+class,比如: div.masthead
el[attr]: 元素+class,比如: a[href]
任意组合,比如:a[href].highlight
ancestor child: 查找某个元素下子元素,比如:可以用.body p 查找在"body"元素下的所有 p元素
parent > child: 查找某个父元素下的直接子元素,比如:可以用div.content > p 查找 p 元素,也可以用body > * 查找body标签下所有直接子元素
siblingA + siblingB: 查找在A元素之前第一个同级元素B,比如:div.head + div
siblingA ~ siblingX: 查找A元素之前的同级X元素,比如:h1 ~ p
el, el, el:多个选择器组合,查找匹配任一选择器的唯一元素,例如:div.masthead, div.logo

伪选择器selectors

:lt(n): 查找哪些元素的同级索引值(它的位置在DOM树中是相对于它的父节点)小于n,比如:td:lt(3) 表示小于三列的元素
:gt(n):查找哪些元素的同级索引值大于n,比如: div p:gt(2)表示哪些div中有包含2个以上的p元素
:eq(n): 查找哪些元素的同级索引值与n相等,比如:form input:eq(1)表示包含一个input标签的Form元素
:has(seletor): 查找匹配选择器包含元素的元素,比如:div:has(p)表示哪些div包含了p元素
:not(selector): 查找与选择器不匹配的元素,比如: div:not(.logo) 表示不包含 class=logo 元素的所有 div 列表
:contains(text): 查找包含给定文本的元素,搜索不区分大不写,比如: p:contains(jsoup)
:containsOwn(text): 查找直接包含给定文本的元素
:matches(regex): 查找哪些元素的文本匹配指定的正则表达式,比如:div:matches((?i)login)
:matchesOwn(regex): 查找自身包含文本匹配指定正则表达式的元素

注: 上述伪选择器索引是从0开始的,也就是说第一个元素索引值为0,第二个元素index为1等。
对于 Elements 的来历,看这

public class Elements extends ArrayList<Element>

另外,可以查看Selector API参考来了解更详细的内容
可以看出,jsoup 使用跟 jQuery 一模一样的选择器对元素进行检索,以上的检索方法如果换成是其他的 HTML 解释器,至少都需要很多行代码,而 jsoup 只需要一行代码即可完成。

修改获取数据

 // 为所有链接增加 rel=nofollow 属性
doc.select("div.comments a").attr("rel", "nofollow"); 
 // 为所有链接增加 class=mylinkclass 属性
doc.select("div.comments a").addClass("mylinkclass"); 
// 删除所有图片的 onclick 属性
doc.select("img").removeAttr("onclick"); 
// 清空所有文本输入框中的文本
doc.select("input[type=text]").val(""); 
// 获得rel属性的值
doc.select("div.comments a").attr("rel");

参考

使用 jsoup 对 HTML 文档进行解析和操作
jsoup 1.9.2 API

从一个URL加载一个Document

存在问题

你需要从一个网站获取和解析一个HTML文档,并查找其中的相关数据。你可以使用下面解决方法:

解决方法

Document doc = Jsoup.connect("http://example.com/").get();
String title = doc.title();

说明

connect(String url) 方法创建一个新的 Connection, 和 get() 取得和解析一个HTML文件。如果从该URL获取HTML时发生错误,便会抛出 IOException,应适当处理。

Connection 接口还提供一个方法链来解决特殊请求,具体如下:

使用 Jsoup.connect(String url)方法:

Document doc = Jsoup.connect("http://example.com")
  .data("query", "Java")
  .userAgent("Mozilla")
  .cookie("auth", "token")
  .timeout(3000)
  .post();

这个方法只支持Web URLs (httphttps 协议); 假如你需要从一个文件加载,可以使用 parse(File in, String charsetName) 代替。

1.10.2版本还提供了代理proxy的借口:

Proxy proxy = new Proxy(                                      
    Proxy.Type.HTTP,                                      
    InetSocketAddress.createUnresolved("127.0.0.1", 8080) 
);

Document document = Jsoup.connect(url).proxy(proxy) // 1.10.2
    .header("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8")
    .header("Accept-Encoding", "gzip, deflate, sdch, br")
    .header("Accept-Language", "en-US,en;q=0.8")
    .header("Cache-Control", "max-age=0")
    .header("Connection", "keep-alive")
    .header("Host", "www.amazon.com")
    .header("Upgrade-Insecure-Requests", "1")
    .header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36")
    .header("Connection", "close")
    .timeout(3000)
    .get();

html = document.outerHtml();

对比 Htmlparser

String url = "http://www.baidu.com/s?wd=site:(justcode.ikeepstudying.com)&rn=50";
/**开始爬取*/
Parser parser = new Parser(url);
//设置字符集
parser.setEncoding("utf-8");
//创建一个filter
NodeFilter contentFilter = new AndFilter(new TagNameFilter("div"), new HasAttributeFilter("id","content_left"));
//通过Filter过滤
NodeList contents = parser.parse(contentFilter);
//再创建Filter,用途通过父类去过滤子类
NodeFilter divsFilter = new AndFilter(new TagNameFilter("div"), new HasAttributeFilter("data-tools"));
NodeList divs = contents.extractAllNodesThatMatch(divsFilter,true);
//取值
for (int i = 0; i < divs.size(); i++) {
	Div div = (Div) divs.elementAt(i);
	String json = div.getAttribute("data-tools");
	if(StringUtils.isNotBlank(json) && json.trim().startsWith("{")){
		//获取到json
		JSONObject jsonObj = JSONObject.fromObject(json.trim());
		//获取url
		String durl = jsonObj.getString("url");//内容url
		//do something
	}
}

相同业务之后改成 JSOUP Java代码:

String url = "http://www.baidu.com/s?wd=site:(justcode.ikeepstudying.com)&rn=50";
Document doc = Jsoup.connect(url).get();
Elements divs = doc.select("div#content_left div[data-tools]");
for (Element element : divs) {
	String json = element.attr("data-tools");
	if(StringUtils.isNotBlank(json) && json.trim().startsWith("{")){
		//获取到json
		JSONObject jsonObj = JSONObject.fromObject(json.trim());
		//获取url
		String durl = jsonObj.getString("url");//内容url
		//do something
	}
}

瞬间你看看,逻辑思维都符合现在流行的链式编程。

JSOUP  创建一个模拟浏览器行为的请求头:

Document doc = Jsoup.connect(url)
			.header("Accept", "*/*")
			.header("Accept-Encoding", "gzip, deflate")
			.header("Accept-Language", "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3")
			.header("Referer", "https://www.baidu.com/")
			.header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:48.0) Gecko/20100101 Firefox/48.0")
			.timeout(5000)
			.get();

然后就开启jQuery模式了。

//获取id = 1 的元素的文本值。
doc.select("#1").text();
//获取id = 1 的元素的HTML值。
doc.select("#1").html();
//获取id =1 直接子类class='css1' , 然后所有子类的含有class = css2 的集合
doc.select("#id > .css1 .css2");
.....

JSOUP 超时分析与处理

1.请求头信息得一致

当你捕获到一个采用JSOUP 去请求超时的链接,我是通过catch 去发现。

try{
	doc = Jsoup.connect(url)
		.header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:49.0) Gecko/20100101 Firefox/49.0")
		.header("Connection", "close")//如果是这种方式,这里务必带上
		.timeout(8000)//超时时间
		.get();
} catch (Exception e) {//可以精确处理timeoutException
	//超时处理
}

通过try···catch 去发现超时,然后结合自己的处理,这里要说几个问题。

  1. 请求头信息,在你尝试去爬取对方的内容的时候,需要尽可能的和你在http浏览器请求的请求头一致,注意是请求头,不是相应头。
  2. 在请求头里务必加上Connection:close ,有同学可能会问,这个不是相应头里的吗?是的,有的时候你看到在请求头里,有的时候看到在相应头里,而且一般是 Connection:keep-alive ,你加上就可以了。下面会讲到。
  3. 当发现对方拒绝请求的时候,把浏览器里看到的请求头全部加上,甚至  Cookie  也加上,注意换行和空格,需要自己处理下。尽量一行。
  4. 如果对方网站过弱,请采用单线程爬取,要不然会大量超时,甚至把对方Kill 了。
  5. 如果对方有  IP  限制,采用  IP  代理,或者频率放缓慢一点。

下面看两张图对比下。

JAVA: java第三方包学习之jsoup
JAVA: java第三方包学习之jsoup
JAVA: java第三方包学习之jsoup
JAVA: java第三方包学习之jsoup

2.请求编码一致

其实下一篇我也会单独再说一下因为编码问题影响乱码的问题,可能有人会问了,编码问题,怎么还会影响超时?不是只会影响乱码吗?这里有一个细节,我们超时其实是分两种,一个是请求超时,一个是读取超时,而我的是读取超时。

这个答案我不能肯定的告诉你,但是我测试发现是会影响超时。开始是这样去请求,我还采用多次,请求最频繁超时的地方,我甚至失败重复请求6次。而且每次超时时间设置都是8秒,timeout(8000)//超时时间

try{
	doc = Jsoup.connect(url)
		.header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:49.0) Gecko/20100101 Firefox/49.0")
		.header("Connection", "close")//如果是这种方式,这里务必带上
		.timeout(8000)//超时时间
		.get();
} catch (Exception e) {//可以精确处理timeoutException
	try{
		doc = Jsoup.connect(url)
			.header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:49.0) Gecko/20100101 Firefox/49.0")
			.header("Connection", "close")
			.timeout(8000)
			.get();
	} catch (Exception e2) {
		//超时处理,超时2次
	}
}

我这里很杯具的告诉大家一个事情,我采用爬虫去爬取一些内容的时候,爬取了200多万层级较深的数据。结果发现有几万数据有乱码问题,初步查看,发现是一些生僻字,但是我在想不应该啊,我用的是UTF-8 ,但是事实如此,经过我多次测试,还是发现乱码,结果我去看下对方的编码,页面是GBK ,而返回来的时候,数据的是 GB2312  编码,这是几个情况?来这一手?开始想着修复数据,但是修复的时候代码写的有问题,哈哈,越改越乱,所以想着还是再来一遍。这可是200多万单线程爬取的数据

改版后成这样:

doc = Jsoup.parse(new URL(url).openStream(), "GBK", url);

这里是简化版的,如果要设置请求头,请在new URL() 中设置,我发现对方没有限制请求头,就这样了。

经过测试1000 次原来乱码数据,发现很好,不乱码,并且发现一个问题,就是不超时,我都是采用请求一次,到后面我采用多线程请求了300万 次,一次都没超时(当然对方网站我看了下有60 多个节点的  CDN  )。

乱码也解决了,超时也解决了。还有一个现象。比以前处理速度快了,也就是读取抓取页面快了。

因为我是读取时候超时,但是通过测试得出在读取的时候,解析数据数据乱码,就慢了,就超时了

本文:JAVA: java第三方包学习之jsoup

发表评论