这篇文章主要介绍“Go语言网络爬虫实例代码分享”,在日常操作中,相信很多人在Go语言网络爬虫实例代码分享问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Go语言网络爬虫实例代码分享”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
爬取页面
这篇通过网络爬虫的示例,来了解 Go 语言的递归、多返回值、延迟函数调用、匿名函数等方面的函数特性。
首先是爬虫的基础示例,下面两个例子展示通过 net/http 包来爬取页面的内容。
获取一个 URL
下面的程序展示从互联网获取信息,获取URL的内容,然后不加解析地输出:
// 输出从 URL 获取的内容
package main
import (
"fmt"
"io"
"net/http"
"os"
"strings"
)
func main() {
for _, url := range os.Args[1:] {
url = checkUrl(url)
resp, err := http.Get(url)
if err != nil {
fmt.Fprintf(os.Stderr, "ERROR fetch request %s: %v\n", url, err)
os.Exit(1) // 进程退出时,返回状态码1
}
_, err = io.Copy(os.Stdout, resp.Body)
resp.Body.Close()
if err != nil {
fmt.Fprintf(os.Stderr, "ERROR fetch reading %s: %v\n", url, err)
os.Exit(1)
}
}
}
func checkUrl(s string) string {
if strings.HasPrefix(s, "http") {
return s
}
return fmt.Sprint("http://", s)
}
这个程序使用里使用了 net/http 包。http.Get 函数产生一个 HTTP 请求,如果没有出错,返回结果存在响应结构 resp 里面。其中 resp 的 Body 域包含服务器端响应的一个可读取数据流。这里可以用 ioutil.ReadAll 读取整个响应的结果。不过这里用的是 io.Copy(dst, src) 函数,这样不需要把整个响应的数据流都装到缓冲区之中。读取完数据后,要关闭 Body 数据流来避免资源泄露。
并发获取多个 URL
这个程序和上一个一样,获取URL的内容,并且是并发获取的。这个版本丢弃响应的内容,只报告每一个响应的大小和花费的时间:
// 并发获取 URL 并报告它们的时间和大小
package main
import (
"fmt"
"io"
"io/ioutil"
"net/http"
"os"
"strings"
"time"
)
func main() {
start := time.Now()
ch := make(chan string)
for _, url := range os.Args[1:] {
url = checkUrl(url)
go fetch(url, ch)
}
for range os.Args[1:] {
fmt.Println(<-ch)
}
fmt.Printf("总耗时: %.2fs\n", time.Since(start).Seconds())
}
func fetch(url string, ch chan<- string) {
start := time.Now()
resp, err := http.Get(url)
if err != nil {
ch <- fmt.Sprintf("get %s error: %v", url, err)
return
}
nbytes, err := io.Copy(ioutil.Discard, resp.Body)
resp.Body.Close() // 不要泄露资源
if err != nil {
ch <- fmt.Sprintf("reading %s error: %v", url, err)
return
}
secs := time.Since(start).Seconds()
ch <- fmt.Sprintf("%.2fs %7d %s", secs, nbytes, url)
}
func checkUrl(s string) string {
if strings.HasPrefix(s, "http") {
return s
}
return fmt.Sprint("http://", s)
}
io.Copy 函数读取响应的内容,然后通过写入 ioutil.Discard 输出流进行丢弃。Copy 返回字节数以及出现的任何错误。只所以要写入 ioutil.Discard 来丢弃,这样就会有一个读取的过程,可以获取返回的字节数。
递归-处理HTML
这章开始,介绍Go语言中函数的一些特性,用到的都是网络爬虫相关的示例。
函数可以递归调用,这意味着函数可以直接或者间接地调用自己。递归是一种实用的技术,可以处理许多带有递归特性的数据结构。下面就会使用递归处理HTML文件。
解析 HTML
下面的代码示例使用了 golang.org/x/net/html 包。它提供了解析 HTML 的功能。下面会用到 golang.org/x/net/html API 如下的一些代码。函数 html.Parse 读入一段字节序列,解析它们,然后返回 HTML 文档树的根节点 html.Node。这里可以只关注函数签名的部分,函数内部实现细节就先了解到上面文字说明的部分。HTML 有多种节点,比如文本、注释等。这里只关注 a 标签和里面的 href 的值:
// golang.org/x/net/html
package html
// A NodeType is the type of a Node.
type NodeType uint32
const (
ErrorNode NodeType = iota
TextNode
DocumentNode
ElementNode
CommentNode
DoctypeNode
scopeMarkerNode
)
type Node struct {
Parent, FirstChild, LastChild, PrevSibling, NextSibling *Node
Type NodeType
DataAtom atom.Atom
Data string
Namespace string
Attr []Attribute
}
type Attribute struct {
Namespace, Key, Val string
}
func Parse(r io.Reader) (*Node, error) {
p := &parser{
tokenizer: NewTokenizer(r),
doc: &Node{
Type: DocumentNode,
},
scripting: true,
framesetOK: true,
im: initialIM,
}
err := p.parse()
if err != nil {
return nil, err
}
return p.doc, nil
}
主函数从标准输入中读入 HTML,使用递归的 visit 函数获取 HTML 文本的超链接,并且把所有的超链接输出。
下面的 visit 函数遍历 HTML 树上的所有节点,从 HTML 的 a 标签中得到 href 属性的内容,将获取到的链接内容添加到字符串切片中,最后再返回这个切片:
// 输出从标准输入中读取的 HTML 文档中的所有连接
package main
import (
"fmt"
"os"
"golang.org/x/net/html"
)
func main() {
doc, err := html.Parse(os.Stdin)
if err != nil {
fmt.Fprintf(os.Stderr, "findlinks1: %v\n", err)
os.Exit(1)
}
for _, link := range visit(nil, doc) {
fmt.Println(link)
}
}
// 将节点 n 中的每个链接添加到结果中
func visit(links []string, n *html.Node) []string {
if n.Type == html.ElementNode && n.Data == "a" {
for _, a := range n.Attr {
if a.Key == "href" {
links = append(links, a.Val)
}
}
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
links = visit(links, c)
}
return links
}
要对树中的任意节点 n 进行递归,visit 递归地调用自己去访问节点 n 的所有子节点,并且将访问过的节点保存在 FirstChild 链表中。
分别将两个程序编译后,使用管道将 fetch 程序的输出定向到 findlinks1。编译后执行:
PS H:\Go\src\gopl\output\http> go build gopl/output/http/fetch
PS H:\Go\src\gopl\output\http> go build gopl/output/http/findlinks1
PS H:\Go\src\gopl\output\http> ./fetch studygolang.com | ./findlinks1
/readings?rtype=1
/dl
#
http://docs.studygolang.com
http://docscn.studygolang.com
/pkgdoc
http://tour.studygolang.com
/account/register
/account/login
/?tab=all
/?tab=hot
https://e.coding.net/?utm_source=studygolang
合并的版本(多返回值)
这是另一个版本,把 fetch 和 findLinks 合并到一起了,FindLInks函数自己发送 HTTP 请求。最后还对 visit 进行了修改,现在使用递归调用 visit (而不是循环)遍历 n.FirstChild 链表:
package main
import (
"fmt"
"net/http"
"os"
"golang.org/x/net/html"
)
func main() {
for _, url := range os.Args[1:] {
links, err := findLinks(url)
if err != nil {
fmt.Fprintf(os.Stderr, "findlink2: %v\n", err)
continue
}
for _, link := range links {
fmt.Println(link)
}
}
}
// 发起一个HTTP的GET请求,解析返回的HTML页面,并返回所有的链接
func findLinks(url string) ([]string, error) {
resp, err := http.Get(url)
if err != nil {
return nil, err
}
if resp.StatusCode != http.StatusOK {
resp.Body.Close()
return nil, fmt.Errorf("getting %s: %s\n", url, resp.Status)
}
doc, err := html.Parse(resp.Body)
resp.Body.Close()
if err != nil {
return nil, fmt.Errorf("parsing %s as HTML: %v\n", url, err)
}
return visit(nil, doc), nil
}
// 将节点 n 中的每个链接添加到结果中
func visit(links []string, n *html.Node) []string {
if n == nil {
return links
}
if n.Type == html.ElementNode && n.Data == "a" {
for _, a := range n.Attr {
if a.Key == "href" {
links = append(links, a.Val)
}
}
}
// 可怕的递归,非常不好理解。
return visit(visit(links, n.FirstChild), n.NextSibling)
}
findLinks 函数有4个返回语句:
关闭 resp.Body
这里必须保证 resp.Body 正确关闭使得网络资源正常释放。即使在发生错误的情况下也必须释放资源。
Go 语言的垃圾回收机制将回收未使用的内存,但不能指望它会释放未使用的操作系统资源,比如打开的文件以及网络连接。必须显示地关闭它们。
遍历 HTML 节点树
下面的程序使用递归遍历所有 HTML 文本中的节点数,并输出树的结构。当递归遇到每个元素时,它都会讲元素标签压入栈,然后输出栈:
package main
import (
"fmt"
"os"
"golang.org/x/net/html"
)
func main() {
doc, err := html.Parse(os.Stdin)
if err != nil {
fmt.Fprintf(os.Stderr, "outline: %v\n", err)
os.Exit(1)
}
outline(nil, doc)
}
func outline(stack []string, n *html.Node) {
if n.Type == html.ElementNode {
stack = append(stack, n.Data) // 把标签压入栈
fmt.Println(stack)
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
outline(stack, c)
}
}
注意一个细节,尽管 outline 会将元素压栈但并不会出栈。当 outline 递归调用自己时,被调用的函数会接收到栈的副本。尽管被调用者可能会对栈(切片类型)进行元素的添加、修改甚至创建新数组的操作,但它并不会修改调用者原来传递的元素,所以当被调用函数返回时,调用者的栈依旧保持原样。
现在可以找一些网页输出:
PS H:\Go\src\gopl\output\http> ./fetch baidu.com | ./outline
[html]
[html head]
[html head meta]
[html body]
PS H:\Go\src\gopl\output\http>
许多编程语言使用固定长度的函数调用栈,大小在 64KB 到 2MB 之间。递归的深度会受限于固定长度的栈大小,所以当进行深度调用时必须谨防栈溢出。固定长度的栈甚至会造成一定的安全隐患。相比固定长度的栈,Go 语言的实现使用了可变长度的栈,栈的大小会随着使用而增长,可达到 1GB 左右的上限。这使得我们可以安全地使用递归而不用担心溢出的问题。
遍历 HTML 节点树2
这里再换一个实现方式,使用函数变量。可以将每个节点的操作逻辑从遍历树形结构的逻辑中分开。这次不重用 fetch 程序了,全部写在一起了:
package main
import (
"fmt"
"net/http"
"os"
"golang.org/x/net/html"
)
func main() {
for _, url := range os.Args[1:] {
outline(url)
}
}
func outline(url string) error {
resp, err := http.Get(url)
if err != nil {
return err
}
defer resp.Body.Close()
doc, err := html.Parse(resp.Body)
if err != nil {
return err
}
forEachNode(doc, startElement, endElement)
return nil
}
// 调用 pre(x) 和 post(x) 遍历以n为根的树中的每个节点x
// 两个函数都是可选的
// pre 在子节点被访问前调用(前序调用)
// post 在访问后调用(后续调用)
func forEachNode(n *html.Node, pre, post func(n *html.Node)) {
if pre != nil {
pre(n)
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
forEachNode(c, pre, post)
}
if post != nil {
post(n)
}
}
var depth int
func startElement(n *html.Node) {
if n.Type == html.ElementNode {
fmt.Printf("%*s<%s>\n", depth*2, "", n.Data)
depth++
}
}
func endElement(n *html.Node) {
if n.Type == html.ElementNode {
depth--
fmt.Printf("%*s</%s>\n", depth*2, "", n.Data)
}
}
这里的 forEachNode 函数接受两个函数作为参数,一个在本节点访问子节点前调用,另一个在所有子节点都访问后调用。这样的代码组织给调用者提供了很多的灵活性。
这里还巧妙的利用了 fmt 的缩进输出。%*s 中的 * 号输出带有可变数量空格的字符串。输出的宽度和字符串由后面的两个参数确定,这里只需要输出空格,字符串用的是空字符串。
这次输出的是要缩进效果的结构:
PS H:\Go\src\gopl\ch6\outline2> go run main.go http://baidu.com
<html>
<head>
<meta>
</meta>
</head>
<body>
</body>
</html>
PS H:\Go\src\gopl\ch6\outline2>
延迟函数调用(defer)
下面示例的两个功能,建议通过延迟函数调用 defer 来实现。
获取页面的title
直接使用 http.Get 请求返回的数据,如果请求的 URL 是 HTML 那么一定会正常的工作,但是许多页面包含图片、文字和其他文件格式。如果让 HTML 解析器去解析这类文件可能会发生意料外的状况。这就需要首先判断Get请求返回的是一个HTML页面,通过返回的响应头的Content-Type来判断。一般是:Content-Type: text/html; charset=utf-8。然后才是解析HTML的标签获取title标签的内容:
package main
import (
"fmt"
"net/http"
"os"
"strings"
"golang.org/x/net/html"
)
func forEachNode(n *html.Node, pre, post func(n *html.Node)) {
if pre != nil {
pre(n)
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
forEachNode(c, pre, post)
}
if post != nil {
post(n)
}
}
func title(url string) error {
resp, err := http.Get(url)
if err != nil {
return err
}
defer resp.Body.Close()
// 检查返回的页面是HTML通过判断Content-Type,比如:Content-Type: text/html; charset=utf-8
ct := resp.Header.Get("Content-Type")
if ct != "text/html" && !strings.HasPrefix(ct, "text/html;") {
return fmt.Errorf("%s has type %s, not text/html", url, ct)
}
doc, err := html.Parse(resp.Body)
if err != nil {
return fmt.Errorf("parseing %s as HTML: %v", url, err)
}
visitNode := func(n *html.Node) {
if n.Type == html.ElementNode && n.Data == "title" && n.FirstChild != nil {
fmt.Println(n.FirstChild.Data)
}
}
forEachNode(doc, visitNode, nil)
return nil
}
func main() {
for _, url := range os.Args[1:] {
err := title(url)
if err != nil {
fmt.Fprintf(os.Stderr, "get url: %v\n", err)
}
}
}
将页面保存到文件
使用Get请求一个页面,然后保存到本地的文件中。使用 path.Base 函数获得 URL 路径最后一个组成部分作为文件名:
package main
import (
"fmt"
"io"
"net/http"
"os"
"path"
)
func fetch(url string) (filename string, n int64, err error) {
resp, err := http.Get(url)
if err != nil {
return "", 0, err
}
defer resp.Body.Close()
local := path.Base(resp.Request.URL.Path)
if local == "/" {
local = "index.html"
}
f, err := os.Create(local)
if err != nil {
return "", 0, err
}
n, err = io.Copy(f, resp.Body)
// 关闭文件,并保留错误消息
if closeErr := f.Close(); err == nil { // 如果 io.Copy 返回的 err 为空,才会报告 closeErr 的错误
err = closeErr
}
return local, n, err
}
func main() {
for _, url := range os.Args[1:] {
local, n, err := fetch(url)
if err != nil {
fmt.Fprintf(os.Stderr, "fetch %s: %v\n", url, err)
continue
}
fmt.Fprintf(os.Stderr, "%s => %s (%d bytes).\n", url, local, n)
}
}
示例中的 fetch 函数中,会 os.Create 打开一个文件。但是如果使用延迟调用 f.Close 去关闭一个本地文件就会有些问题,因为 os.Create 打开了一个文件对其进行写入、创建。在许多文件系统中尤其是NFS,写错误往往不是立即返回而是推迟到文件关闭的时候。如果无法检查关闭操作的结果,就会导致一系列的数据丢失。然后,如果 io.Copy 和 f.Close 同时失败,我们更倾向于报告 io.Copy 的错误,因为它发生在前,更有可能记录失败的原因。示例中的最后一个错误处理就是这样的处理逻辑。
优化defer的位置
在打开文件之后,在处理完打开的错误之后就应该立即写上 defer 语句,保证 defer 语句和文件打开的操作成对出现。但是这里还插入了一条 io.Copy 的语句,在这个例子里只是一条语句,也有可能是一段代码,这样就会让 defer 变得不那么清晰了。这里利用 defer 可以改变函数返回值的特性,将 defer 移动到 io.Copy 执行之前,又能够保证返回的错误值 err 可以记录下 io.Copy 执行后可能的错误。
在原有代码的基础上,在 defer 中只需要把 if 的代码块封装到匿名函数中就可以了:
f, err := os.Create(local)
if err != nil {
return "", 0, err
}
defer func() {
if closeErr := f.Close(); err == nil {
err = closeErr
}
}()
n, err = io.Copy(f, resp.Body)
return local, n, err
这里的做法就是在 defer 中改变返回给调用者的结果。
匿名函数
网络爬虫的遍历。
解析链接
在之前遍历节点树的基础上,这次来获取页面中所有的链接。将之前的 visit 函数替换为匿名函数(闭包),现在可以直接在匿名函数里把找到的链接添加到 links 切片中,这样的改变之后,逻辑上更加清晰也更好理解了。因为 Extract 函数只需要前序调用,这里就把 post 部分的参数值传nil。这里做成一个包,后面要继续使用:
// 提供解析连接的函数
package links
import (
"fmt"
"net/http"
"golang.org/x/net/html"
)
// 向给定的URL发起HTTP GET 请求
// 解析HTML并返回HTML文档中存在的链接
func Extract(url string) ([]string, error) {
resp, err := http.Get(url)
if err != nil {
return nil, err
}
if resp.StatusCode != http.StatusOK {
resp.Body.Close()
return nil, fmt.Errorf("get %s: %s", url, resp.Status)
}
doc, err := html.Parse(resp.Body)
resp.Body.Close()
if err != nil {
return nil, fmt.Errorf("parse %s: %s", url, err)
}
var links []string
visitNode := func(n *html.Node) {
if n.Type == html.ElementNode && n.Data == "a" {
for _, a := range n.Attr {
if a.Key != "href" {
continue
}
link, err := resp.Request.URL.Parse(a.Val)
if err != nil {
continue // 忽略不合法的URL
}
links = append(links, link.String())
}
}
}
forEachNode(doc, visitNode, nil) // 只要前序遍历,后续不执行,传nil
return links, nil
}
func forEachNode(n *html.Node, pre, post func(n *html.Node)) {
if pre != nil {
pre(n)
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
forEachNode(c, pre, post)
}
if post != nil {
post(n)
}
}
/* 使用时写的函数
func main() {
url := "https://baidu.com"
urls, err := Extract(url)
if err != nil { // 错误处理随便写写,不引入新的包
fmt.Printf("extract: %v\n", err)
return
}
for n, u := range urls {
fmt.Printf("%2d: %s\n", n, u)
}
}
*/
解析URL成为绝对路径
这里不直接把href原封不动地添加到切片中,而将它解析成基于当前文档的相对路径 resp.Request.URL。结果的链接是绝对路径的形式,这样就可以直接用 http.Get 继续调用。
图的遍历
网页爬虫的核心是解决图的遍历,使用递归的方法可以实现深度优先遍历。对于网络爬虫,需要广度优先遍历。另外还可以进行并发遍历,这里不讲这个。
下面的示例函数展示了广度优先遍历的精髓。调用者提供一个初始列表 worklist,它包含要访问的项和一个函数变量 f 用来处理每一个项。每一个项有字符串来识别。函数 f 将返回一个新的列表,其中包含需要新添加到 worklist 中的项。breadthFirst 函数将在所有节点项都被访问后返回。它需要维护一个字符串集合来保证每个节点只访问一次。
在爬虫里,每一项节点都是 URL。这里需要提供一个 crawl 函数传给 breadthFirst 函数最为f的值,用来输出URL,然后解析链接并返回:
package main
import (
"fmt"
"log"
"os"
"gopl/ch6/links"
)
// 对每一个worklist中的元素调用f
// 并将返回的内容添加到worklist中,对每一个元素,最多调用一次f
func breadthFirst(f func(item string) []string, worklist []string) {
seen := make(map[string]bool)
for len(worklist) > 0 {
items := worklist
worklist = nil
for _, item := range items {
if !seen[item] {
seen[item] = true
worklist = append(worklist, f(item)...)
}
}
}
}
func crawl(url string) []string {
fmt.Println(url)
list, err := links.Extract(url)
if err != nil {
log.Print(err)
}
return list
}
func main() {
// 开始广度遍历
// 从命令行参数开始
breadthFirst(crawl, os.Args[1:])
}
遍历输出链接
接下来就是找一个网页来测试,下面是一些输出的链接:
PS H:\Go\src\gopl\ch6\findlinks3> go run main.go http://lab.scrapyd.cn/
http://lab.scrapyd.cn/
http://lab.scrapyd.cn/archives/57.html
http://lab.scrapyd.cn/tag/%E8%89%BA%E6%9C%AF/
http://lab.scrapyd.cn/tag/%E5%90%8D%E7%94%BB/
http://lab.scrapyd.cn/archives/55.html
http://lab.scrapyd.cn/archives/29.html
http://lab.scrapyd.cn/tag/%E6%9C%A8%E5%BF%83/
http://lab.scrapyd.cn/archives/28.html
http://lab.scrapyd.cn/tag/%E6%B3%B0%E6%88%88%E5%B0%94/
http://lab.scrapyd.cn/tag/%E7%94%9F%E6%B4%BB/
http://lab.scrapyd.cn/archives/27.html
......
整个过程将在所有可达的网页被访问到或者内存耗尽时结束。
示例:并发的 Web 爬虫
接下来是并发编程,使上面的搜索连接的程序可以并发运行。这样对 crawl 的独立调用可以充分利用 Web 上的 I/O 并行机制。
并发的修改
crawl 函数依然还是之前的那个函数不需要修改。而下面的 main 函数类似于原来的 breadthFirst 函数。这里也像之前一样,用一个任务类别记录需要处理的条目队列,每一个条目是一个待爬取的 URL 列表,这次使用通道代替切片来表示队列。每一次对 crawl 的调用发生在它自己的 goroutine 中,然后将发现的链接发送回任务列表:
package main
import (
"fmt"
"log"
"os"
"gopl/ch6/links"
)
func crawl(url string) []string {
fmt.Println(url)
list, err := links.Extract(url)
if err != nil {
log.Print(err)
}
return list
}
func main() {
worklist := make(chan []string)
// 从命令行参数开始
go func() { worklist <- os.Args[1:] }()
// 并发爬取 Web
seen := make(map[string]bool)
for list := range worklist {
for _, link := range list {
if !seen[link] {
seen[link] = true
go func(link string) {
worklist <- crawl(link)
}(link)
}
}
}
}
注意,这里爬取的 goroutine 将 link 作为显式参数来使用,以避免捕获迭代变量的问题。还要注意,发送给任务列表的命令行参数必须在它自己的 goroutine 中运行来避免死锁。另一个可选的方案是使用缓冲通道。
限制并发
现在这个爬虫高度并发,比原来输出的效果更高了,但是它有两个问题。先看第一个问题,它在执行一段时间后会出现大量错误日志,过一会后会恢复,再之后又出现错误日志,如此往复。主要是因为程序同时创建了太多的网络连接,超过了程序能打开文件数的限制。
程序的并行度太高了,无限制的并行通常不是一个好主要,因为系统中总有限制因素,例如,对于计算型应用 CPU 的核数,对于磁盘 I/O 操作磁头和磁盘的个数,下载流所使用的网络带宽,或者 Web 服务本身的容量。解决方法是根据资源可用情况限制并发的个数,以匹配合适的并行度。该例子中有一个简单的办法是确保对于 link.Extract 的同时调用不超过 n 个,这里的 n 一般小于文件描述符的上限值。
这里可以使用一个容量为 n 的缓冲通道来建立一个并发原语,称为计数信号量。概念上,对于缓冲通道中的 n 个空闲槽,每一个代表一个令牌,持有者可以执行。通过发送一个值到通道中来领取令牌,从通道中接收一个值来释放令牌。这里的做法和直观的理解是反的,尽管使用已填充槽更直观,但使用空闲槽在创建的通道缓冲区之后可以省掉填充的过程,并且这里的令牌不携带任何信息,通道内的元素类型不重要。所以通道内的元素就使用 struct{},它所占用的空间大小是0。
重写 crawl 函数,使用令牌的获取和释放操作限制对 links.Extract 函数的调用,这里保证最多同时20个调用可以进行。保持信号量操作离它约束的 I/O 操作越近越好,这是一个好的实践:
// 令牌 tokens 是一个计数信号量
// 确保并发请求限制在 20 个以内
var tokens = make(chan struct{}, 20)
func crawl(url string) []string {
fmt.Println(url)
tokens <- struct{}{} // 获取令牌
list, err := links.Extract(url)
<- tokens // 释放令牌
if err != nil {
log.Print(err)
}
return list
}
程序退出
现在来处理第二个问题,这个程序永远不会结束。虽然可能爬不完所有的链接,也就注意不到这个问题。为了让程序终止,当任务列表为空并且爬取 goroutine 都结束以后,需要从主循环退出:
func main() {
worklist := make(chan []string)
var n int // 等待发送到任务列表的数量
// 从命令行参数开始
n++
go func() { worklist <- os.Args[1:] }()
// 并发爬取 Web
seen := make(map[string]bool)
for ; n > 0; n-- {
list := <- worklist
for _, link := range list {
if !seen[link] {
seen[link] = true
n++
go func(link string) {
worklist <- crawl(link)
}(link)
}
}
}
}
在这个版本中,计数器 n 跟踪发送到任务列表中的任务个数。在每次将一组条目发送到任务列表前,就递增变量 n。在主循环中没处理一个 worklist 后就递减1,见减到0表示再没有任务了,于是可以正常退出。
之前的版本,使用 range 遍历通道,只要通道关闭,也是可以退出循环的。但是这里没有一个地方可以确认再没有任务需要添加了从而加上一句关闭通道的close语句。所以需要一个计数器 n 来记录还有多少个任务等待 worklist 处理。
现在,并发爬虫的速度大约比之前快了20倍,应该不会出现错误,并且能够正确退出。
另一个方案
这里还有一个替代方案,解决过度并发的问题。这个版本使用最初的 crawl 函数,它没有技术信号量,但是通过20个长期存活的爬虫 goroutine 来调用它,这样也保证了最多20个HTTP请求并发执行:
func main() {
worklist := make(chan []string) // 可能有重复的URL列表
unseenLinks := make(chan string) // 去重后的eURL列表
// 向任务列表中添加命令行参数
go func() { worklist <- os.Args[1:] }()
// 创建20个爬虫 goroutine 来获取每个不可见链接
for i := 0; i < 20; i++ {
go func() {
for link := range unseenLinks {
foundLinks := crawl(link)
go func() { worklist <- foundLinks }()
}
}()
}
// 主 goroutine 对 URL 列表进行去重
// 并把没有爬取过的条目发送给爬虫程序
seen := make(map[string]bool)
for list := range worklist {
for _, link := range list {
if !seen[link] {
seen[link] = true
unseenLinks <- link
}
}
}
}
爬取 goroutine 使用同一个通道 unseenLinks 接收要爬取的URL,主 goroutine 负责对从任务列表接收到的条目进行去重,然后发送每一个没有爬取过的条目到 unseenLinks 通道,之后被爬取 goroutine 接收。
crawl 发现的每组链接,通过精心设计的 goroutine 发送到任务列表来避免死锁。
这里例子目前也没有解决程序退出的问题,并且不能简单的参考之前的做法使用计数器 n 来进行计数。上个版本中,计数器 n 都是在主 goroutine 进行操作的,这里也是可以继续用这个方法来计数判断程序是否退出,但是在不同的 goroutine 中操作计数器时,就需要考虑并发安全的问题。要使用并发安全的计数器 sycn.WaitGroup,具体实现略。
深度限制
回到使用令牌并能正确退出的方案。虽然有结束后退出的逻辑,但是一般情况下,一个网站总用无限个链接,永远爬取不完。现在再增加一个功能,深度限制:如果用户设置 -depth=3,那么仅最多通过三个链接可达的 URL 能被找到。另外还增加了一个功能,统计总共爬取的页面的数量。现在每次打印 URL 的时候,都会加上深度和序号。
先说简单的,页面计数的功能。就是要一个计数器,但是需要并发在不同的 goroutine 里操作,所以要考虑并发安全。通过通道就能实现,在主 goroutine 中单独再用一个 goroutine 负责计数器的自增:
var count = make(chan int) // 统计一共爬取了多个页面
func main() {
// 负责 count 值自增的 goroutine
go func() {
var i int
for {
i++
count <- i
}
}()
flag.Parse()
// 省略主函数中的其他内容
}
func crawl(url string, depth int) urllist {
fmt.Println(depth, <-count, url)
tokens <- struct{}{} // 获取令牌
list, err := links.Extract(url)
<-tokens // 释放令牌
if err != nil {
log.Print(err)
}
return urllist{list, depth + 1}
}
然后是深度限制的核心功能。首先要为 worklist 添加深度的信息,把原本的字符串切片加上深度信息组成一个结构体作为 worklist 的元素:
type urllist struct {
urls []string
depth int
}
现在爬取页面后先把返回的信息暂存在 nextList 中,而不是直接添加到 worklist。检查 nextList 中的深度,如果符合深度限制,就向 worklist 添加,并且要增加 n 计数器。如果超出深度限制,就什么也不做。原本主函数的 for 循环里的每一个 goroutine 都会增加 n 计数器,所以计数器的自增是在主函数里完成的。现在需要在每一个 goroutine 中判断是否要对计数器进行自增,所以这里要把计数器换成并发安全的 sync.WaitGroup 然后可以在每个 goroutine 里来安全的操作计数器。这里要防止计数器过早的被减到0,不过逻辑还算简单,就是在向 worlist 添加元素之前进行加1操作。
然后 n 计数器的减1的操作要上更加复杂。需要在 worklist 里的一组 URL 全部操作完之后,才能把 n 计数器减1,这就需要再引入一个计数器 n2。只有等计数器 n2 归0后,才能将计数器 n 减1。这里还要防止程序卡死。向 worklist 添加元素额操作会一直阻塞,直到主函数 for 循环的下一次迭代时从 worklist 接收数据位置。所以要仔细考虑每个操作的正确顺序,具体还是看代码吧:
package main
import (
"flag"
"fmt"
"log"
"sync"
"gopl/ch6/links"
)
var count = make(chan int) // 统计一共爬取了多个页面
// 令牌 tokens 是一个计数信号量
// 确保并发请求限制在 20 个以内
var tokens = make(chan struct{}, 20)
func crawl(url string, depth int) urllist {
fmt.Println(depth, <-count, url)
tokens <- struct{}{} // 获取令牌
list, err := links.Extract(url)
<-tokens // 释放令牌
if err != nil {
log.Print(err)
}
return urllist{list, depth + 1}
}
var depth int
func init() {
flag.IntVar(&depth, "depth", -1, "深度限制") // 小于0就是不限制递归深度,0就是只爬取当前页面
}
type urllist struct {
urls []string
depth int
}
func main() {
// 负责 count 值自增的 goroutine
go func() {
var i int
for {
i++
count <- i
}
}()
flag.Parse()
worklist := make(chan urllist)
// 等待发送到任务列表的数量
// 因为需要在 goroutine 里修改,需要换成并发安全的计数器
var n sync.WaitGroup
starturls := flag.Args()
if len(flag.Args()) == 0 {
starturls = []string{"http://lab.scrapyd.cn/"}
}
// 从命令行参数开始
n.Add(1)
go func() { worklist <- urllist{starturls, 0} }()
// 等待全部worklist处理完,就关闭worklist
go func() {
n.Wait()
close(worklist)
}()
// 并发爬取 Web
seen := make(map[string]bool)
for list := range worklist {
// 处理完一个worklist后才能让 n 计数器减1
// 而处理 worklist 又是很多个 goroutine,所以需要再用一个计数器
var n2 sync.WaitGroup
for _, link := range list.urls {
if !seen[link] {
seen[link] = true
n2.Add(1)
go func(url string, listDepth int) {
nextList := crawl(url, listDepth)
// 如果 depth>0 说明有深度限制
// 如果当前的深度已经达到(或超过)深度限制,则爬取完这个连接后,不需要再继续爬取,直接返回
if depth >= 0 && listDepth >= depth {
// 超出递归深度的页面,在爬取完之后,也输出 URL
// for _, nextUrl := range nextList.urls {
// fmt.Println(nextList.depth, "stop", nextUrl)
// }
n2.Done() // 所有退出的情况都要减计数器n2的值,但是一定要在向通道发送之前
return
}
n.Add(1) // 添加任务前,计数加1
n2.Done() // 先确保计数器n加1了,再减计数器n2的值
worklist <- nextList // 新的任务加入管道必须在最后,之后再一次for循环迭代的时候,才会接收这个值
}(link, list.depth)
}
}
n2.Wait()
n.Done()
// 把计数器的操作也放到 goroutine 中,这样可以继续下一次 for 循环的迭代
// go func() {
// n2.Wait()
// n.Done()
// }()
}
}
主函数 for 循环最后对计数器 n 和 n2 的操作,也是可以放到一个 goroutine 里的。现在会在 for 循环每次迭代的时候,等待直到一个 worklist 全部处理完毕后,才会处理下一个 worklist。所以这部分的逻辑还是串行的,不个这样方面确认程序的正确性。之后可以结单修改一下,也放到一个 goroutine 中处理,让 for 循环可以继续迭代:
go func() {
n2.Wait()
n.Done()
}()
最后测试程序的还有一个困扰的问题。不过仔细检查之后,其实并不是问题。就是程序在所有的 URL 输出之后,还会等待比较长的一段时间才会退出。一个真正的爬虫,不是要输出 URL 而是要爬取页面。程序是在每次准备爬取页面之前,先将页面的 URL 打印输出,然后去爬取并解析页面的内容。全部 URL 输出完,程序退出之前,这段没有任何输出的时间里,就是在对剩余的页面进行爬取。原本爬完之后,检查到深度超过限制就不会做任何操作。这里可以在检查后,把返回的所有连接的 URL 和深度也进行输出。这段代码已经写在例子中但是被注释掉了,放开后,就能看到更多的输出内容,确认退出前的这段时间里,程序依然在正确的执行。
支持手动取消操作
继续添加功能,这次在任务开始后,可以通过键盘输入,来终止任务。这类操作还是比较常见的,下面应该是一种比较通用的做法。这里还包括一些额外的技巧的讲解。
取消(广播)
首先了解一下取消操作为什么需要一个广播的机制,以及利用通道关闭的特性,实现广播。
一个 goroutine 无法直接终止另一个,因为这样会让所有的共享变量状态处于不确定状态。正确的做法是使用通道来传递一个信号,当 goroutine 接收到信号时,就终止自己。这里要讨论的是如何同时取消多个 goroutine。
一个可选的做法是,给通道发送你要取消的 goroutine 同样多的信号。但是如果一些 goroutine 已经自己终止了,这样计数就多了,就会在发送过程中卡住。如果某些 goroutine 还会自我繁殖,那么信号的数量又会太少。通常,任何时刻都很难知道有多少个 goroutine 正在工作。对于取消操作,这里需要一个可靠的机制在一个通道上广播一个事件,这样所以的 goroutine 就都能收到信号,而不用关心具体有多少个 goroutine。
当一个通道关闭且已经取完所有发送的值后,接下来的接收操作都会立刻返回,得到零值。就可以利用这个特性来创建一个广播机制。第一步,创建一个取消通道,在它上面不发送任何的值,但是它的关闭表明程序需要停止它正在做的事前。
查询状态
还要定义一个工具函数 cancelled,在它被调用的时候检测或轮询取消状态:
var done = make(chan struct{})
func cancelled() bool {
select {
case <-done:
return true
default:
return false
}
}
如果需要在原本是通道操作的地方增加取消操作判断的逻辑,那么就对原本要操作的通道和取消广播的通道写一个 select 多路复用。
如果要判断的位置原本没有通道,那么就是一个非阻塞的只有取消广播通道的 select 多路复用,就是这里的工具函数。简单来讲,直接调用工具函数进行判断即可。
之后的代码里就是这么做的。
发送取消广播
接下来,创建一个读取标准输入的 goroutine,它通常连接到终端,当用户按回车后,这个 goroutine 通过关闭 done 通道来广播取消事件:
// 当检测到输入时,广播取消
go func() {
os.Stdin.Read(make([]byte, 1)) // 读一个字节
close(done)
}()
把这个新的 goroutine 加在主函数的开头就好了。
响应取消操作
现在要让所有的 goroutine 来响应这个取消操作。在主 goroutine 中的 select 中,尝试从 done 接收。如果接收到了,就需要进行取消操作,但是在结束之前,它必须耗尽 worklist 通道,丢弃它所有的值,直到通道关闭。这么做是为了保证 for 循环里之前迭代时调用的匿名函数都可以执行完,不会卡在向 worklist 通道发送消息上:
var list urllist
var worklistok bool
select {
case <-done:
// 耗尽 worklist,让已经创建的 goroutine 结束
for range worklist {
n.Done()
}
// 执行到这里的前提是迭代完 worklist,就是需要 worklist 关闭
// 关闭 worklist 则需要 n 计数器归0。而 worklist 每一次减1,需要一个 n2 计数器归零
// 所以,下面的 return 应该不会在其他 goroutine 运行完毕之前执行
return
case list, worklistok = <-worklist:
if !worklistok {
break loop
}
}
之后的 for 循环会没每个 URL 开启一个 goroutine。在每一次迭代中,在开始的时候轮询取消状态。如果是取消的状态,就什么都不做并且终止迭代:
for _, link := range list.urls {
if cancelled() {
break
}
// 省略之后的代码
}
现在基本就避免了在取消后创建新的 goroutine。但是其他已经创建的 goroutine 则会等待他们执行完毕。要想更快的响应,就需要对程序逻辑进行侵入式的修改。要确保在取消事件之后没有更多昂贵的操作发生。这就需要更新更多的代码,但是通常可以通过在少量重要的地方检查取消状态来达到目的。在 crawl 中获取信号量令牌的操作也需要快速结束:
func crawl(url string, depth int) urllist {
select {
case <-done:
return urllist{nil, depth + 1}
case tokens <- struct{}{}: // 获取令牌
fmt.Println(depth, <-count, url)
}
list, err := links.Extract(url, done)
<-tokens // 释放令牌
if err != nil && !strings.Contains(err.Error(), "net/http: request canceled") {
log.Print(err)
}
return urllist{list, depth + 1}
}
在 crwal 函数中,调用了 links.Extract 函数。这是一个非常耗时的网络爬虫操作,并且不会马上返回。正常需要等到页面爬取完毕,或者连接超时才返回。而我们的程序也会一直等待所有的爬虫返回后才会退出。所以这里在调用的时候,把取消广播的通道传递传递给函数了,下面就是修改 links.Extract 来响应这个取消操作,立刻终止爬虫并返回。
关闭HTTP请求
HTTP 请求可以通过关闭 http.Request 结构体中可选的 Cancel 通道进行取消。http.Get 便利函数没有提供定制 Request 的机会。这里要使用 http.NewRequest 创建请求,设置它的 Cancel 字段,然后调用 http.DefaultClient.Do(req) 来执行请求。对 links 包中的 Extract 函数按上面说的进行修改,具体如下:
// 向给定的URL发起HTTP GET 请求
// 解析HTML并返回HTML文档中存在的链接
func Extract(url string, done <-chan struct{}) ([]string, error) {
req, err := http.NewRequest("GET", url, nil)
if err != nil {
return nil, err
}
req.Cancel = done
resp, err := http.DefaultClient.Do(req)
if err != nil {
return nil, err
}
if resp.StatusCode != http.StatusOK {
resp.Body.Close()
return nil, fmt.Errorf("get %s: %s", url, resp.Status)
}
// 仅修改开头的部分,后面的代码省略
}
测试的技巧
期望的情况是,当然是当取消事件到来时 main 函数可以返回,然后程序随之退出。如果发现在取消事件到来的时候 main 函数没有返回,可以执行一个 panic 调用。从崩溃的转存储信息中通常含有足够的信息来帮助我们分析,发现哪些 goroutine 还没有合适的取消。也可能是已经取消了,但是需要的时间比较长。总之,使用 panic 可以帮助查找原因。
并发请求最快的镜像资源
最后还有一个小例子,场景比较常见,并且有一个 goroutine 泄露的问题需要注意。
下面的例子展示一个使用缓冲通道的应用。它并发地向三个镜像地址发请求,镜像指相同但分布在不同地理区域的服务器。它将它们的响应通过一个缓冲通道进行发送,然后只接收第一个返回的响应,因为它是最早到达的。所以 mirroredQuery 函数甚至在两个比较慢的服务器还没有响应之前返回了一个结果。(偶然情况下,会出现像这个例子中的几个 goroutine 同时在一个通道上并发发送,或者同时从一个通道接收的情况。):
func mirroredQuery() string {
responses := make(chan string, 3) // 有几个镜像,就要多大的容量,不能少
go func () { responses <- request("asia.gopl.io") }()
go func () { responses <- request("europe.gopl.io") }()
go func () { responses <- request("americas.gopl.io") }()
return <- responses // 返回最快一个获取到的请求结果
}
func request(hostname string) (response string) { return "省略获取返回的代码" }
goroutine 泄露
在上面的示例中,如果使用的是无缓冲通道,两个比较慢的 goroutine 将被卡住,因为在它们发送响应结果到通道的时候没有 goroutine 来接收。这个情况叫做 goroutine 泄漏。它属于一个 bug。不像回收变量,泄漏的 goroutine 不会自动回收,所以要确保 goroutine 在不再需要的时候可以自动结束。
请求并解析资源
上面只是一个大致的框架,不过核心思想都在里面了。现在来完成这里的 request 请求。并且 request 里会发起 http 请求,虽然可以让每一个请求都执行完毕。但是只要第一个请求完成后,其他请求就可以终止了,现在也已经掌握了主动关闭 http 请求的办法了。
这里把示例的功能写的更加完整一些,用上之前的页面解析和获取 title 的部分代码。通过命令行参数提供的多个 url 爬取页面,解析页面的 title,返回第一个完成的 title。完整的代码如下:
package main
import (
"errors"
"fmt"
"io"
"net/http"
"os"
"strings"
"sync"
"golang.org/x/net/html"
)
// 递归解析文档树获取 title
func forEachNode(n *html.Node, titleP *string, pre, post func(n *html.Node)) {
if *titleP != "" {
return
}
if pre != nil {
pre(n)
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
forEachNode(c, titleP, pre, post)
}
if post != nil {
post(n)
}
}
// 使用上面的 forEachNode 函数,递归文档树。返回找到的第一个 title 或者全部遍历返回空字符串
func soleTitle(doc *html.Node) string {
var title string // 被下面的闭包引用了
visitNode := func(n *html.Node) {
if n.Type == html.ElementNode && n.Data == "title" && n.FirstChild != nil {
title = n.FirstChild.Data
}
}
forEachNode(doc, &title, visitNode, nil)
return title
}
// 解析返回 title 的入口函数
// 把响应体解析为文档树,然后交给 soleTitle 处理,获取 title
func title(url string, body io.Reader) (string, error) {
doc, err := html.Parse(body)
if err != nil {
return "", fmt.Errorf("parseing %s as HTML: %v", url, err)
}
title := soleTitle(doc)
if title == "" {
return "", errors.New("no title element")
}
return title, nil
}
// 上面是解析返回结果的逻辑,不是这里的重点
// 请求镜像资源
func mirroredQuery(urls ...string) string {
type respData struct { // 返回的数据类型
resp string
err error
}
count := len(urls) // 总共发起的请求数
responses := make(chan respData, count) // 有几个镜像,就要多大的容量,不能少
done := make(chan struct{}) // 取消广播的通道
var wg sync.WaitGroup // 计数器,等所有请求返回后再结束。帮助判断其他连接是否可以取消
wg.Add(count)
for _, url := range urls {
go func(url string) {
defer wg.Done()
resp, err := request(url, done)
responses <- respData{resp, err}
}(url)
}
// 等待结果返回并处理
var response string
for i := 0; i < count; i++ {
data := <-responses
if data.err == nil { // 只接收第一个无错误的返回
response = data.resp
close(done)
break
}
fmt.Fprintf(os.Stderr, "mirror get: %v\n", data.err)
}
wg.Wait()
return response
}
// 负责发起请求并返回结果和可能的错误
func request(url string, done <-chan struct{}) (response string, err error) {
req, err := http.NewRequest("GET", url, nil)
if err != nil {
return "", err
}
req.Cancel = done
resp, err := http.DefaultClient.Do(req)
if err != nil {
return "", err
}
defer resp.Body.Close()
// 检查返回的页面是HTML通过判断Content-Type,比如:Content-Type: text/html; charset=utf-8
ct := resp.Header.Get("Content-Type")
if ct != "text/html" && !strings.HasPrefix(ct, "text/html;") {
return "", fmt.Errorf("%s has type %s, not text/html", url, ct)
}
// 如果上面检查响应头没问题,把响应体交给 title 函数解析获取结果
return title(url, resp.Body)
}
func main() {
response := mirroredQuery(os.Args[1:]...)
fmt.Println(response)
}
这里的 request 除了返回响应消息还会返回一个错误。在 mirroredQuery 函数内需要处理这个错误,从而可以获取到第一个正确返回的响应消息。也有可能所有的请求都没有正确的返回,这里的做法也确保了所有的请求都返回错误后程序可以正常执行结束。
解析页面获取 title 的部分,基本参照了上面的获取页面的title这小节的实现。
到此,关于“Go语言网络爬虫实例代码分享”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注天达云网站,小编会继续努力为大家带来更多实用的文章!