代码:
SafeRun加锁设置url的已访问
通过
for i:=0; i < len(urls); i++{ <-sub_quit }父go线程等待子go线程结束
package main import ( "fmt" ) type Fetcher interface { // Fetch 返回 URL 的 body 内容,并且将在这个页面上找到的 URL 放到一个 slice 中。 Fetch(url string) (body string, urls []string, err error) } var lockx = make(chan int,1) func SafeRun(f func()){ <-lockx f() lockx <-1 } var visited map[string]bool = make(map[string]bool) // Crawl 使用 fetcher 从某个 URL 开始递归的爬取页面,直到达到最大深度。 func Crawl(url string, depth int, fetcher Fetcher, quit chan int) { // TODO: 并行的抓取 URL。 // TODO: 不重复抓取页面。 // 下面并没有实现上面两种情况: defer func(){ quit<-1 }() if depth <= 0 || visited[url] { return } body, urls, err := fetcher.Fetch(url) SafeRun(func(){ visited[url]=true }) if err != nil { fmt.Println(err) return } fmt.Printf("found: %s %q\n", url, body) sub_quit := make(chan int,len(urls)) for _, u := range urls { Crawl(u, depth-1, fetcher,sub_quit) } for i:=0; i < len(urls); i++{ <-sub_quit } return } func main() { lockx<-1 quit := make(chan int,1) Crawl("http://golang.org/", 4, fetcher,quit) fmt.Println(<-quit) } // fakeFetcher 是返回若干结果的 Fetcher。 type fakeFetcher map[string]*fakeResult type fakeResult struct { body string urls []string } func (f fakeFetcher) Fetch(url string) (string, []string, error) { if res, ok := f[url]; ok { return res.body, res.urls, nil } return "", nil, fmt.Errorf("not found: %s", url) } // fetcher 是填充后的 fakeFetcher。 var fetcher = fakeFetcher{ "http://golang.org/": &fakeResult{ "The Go Programming Language", []string{ "http://golang.org/pkg/", "http://golang.org/cmd/", }, }, "http://golang.org/pkg/": &fakeResult{ "Packages", []string{ "http://golang.org/", "http://golang.org/cmd/", "http://golang.org/pkg/fmt/", "http://golang.org/pkg/os/", }, }, "http://golang.org/pkg/fmt/": &fakeResult{ "Package fmt", []string{ "http://golang.org/", "http://golang.org/pkg/", }, }, "http://golang.org/pkg/os/": &fakeResult{ "Package os", []string{ "http://golang.org/", "http://golang.org/pkg/", }, }, }