# zerg
基于docker的分布式爬虫服务
[![image](https://camo.githubusercontent.com/e4deb67aa41f71d46774f192b05b75be5c3da112/68747470733a2f2f7261772e6769746875622e636f6d2f6875696368656e2f7a6572672f6d61737465722f646f632f7a6572672e706e67)](https://camo.githubusercontent.com/e4deb67aa41f71d46774f192b05b75be5c3da112/68747470733a2f2f7261772e6769746875622e636f6d2f6875696368656e2f7a6572672f6d61737465722f646f632f7a6572672e706e67)
### [](https://github.com/huichen/zerg#特性)特性
*
多机多 IP,充分利用 IP 资源
*
服务自动发现和注册(基于 etcd 和 registrator)
*
负载均衡
*
服务端客户端通信基于 gRPC,支持多种编程语言的客户端
*
可设置抓取超时
*
支持 GET、HEAD、POST 方法
*
支持自定义 header
### 如何部署
#### 第一步:配置 etcd
我把 etcd 容器化了,并开发了脚本使得部署 etcd cluster 非常容易,见 [github.com/huichen/etcd_docker](https://github.com/huichen/etcd_docker)
为了容灾,请至少在三台服务器上运行 etcd 实例。为了方便调用,你可以固定 etc endpoint 的端口号,并在所有机器上手工添加 etcd host 的 hostname。
#### 第二步:启动 registrator 服务发现程序
你需要在集群的每一台服务器上都运行 registrator,这使得我们可以自动发现和注册分布式服务
<pre class="brush:shell;toolbar: true; auto-links: false;">docker run -d --name=registrator --net=host --volume=/var/run/docker.sock:/tmp/docker.sock \
gliderlabs/registrator etcd://<etcd 接入点的 ip:port>/services</pre>
请把上面的 etcd 接入点换成你的 etcd 地址。
#### 第三步:部署 zerg 服务
进入 service_container 子目录,然后运行
<pre class="brush:shell;toolbar: true; auto-links: false;">./build_docker_image.sh</pre>
这会生成 unmerged/zerg 容器。然后在集群的每台服务器上启动容器:
<pre class="brush:shell;toolbar: true; auto-links: false;">docker run -d -P unmerged/zerg</pre>
registrator 会自动注册这些服务到 etcd。如果单机有多个 IP,你可以单机启动多个容器,并在 -P 中分别指定 IP。
#### 第四步:调用样例代码
进入 examples 目录,运行
<pre class="brush:shell;toolbar: true; auto-links: false;">go run zerg_crawl.go --endpoints http://<你的 etcd host:ip> --url http://taobao.com</pre>
#### 可选步骤
1、重新生成 protobuf service
<pre class="brush:shell;toolbar: true; auto-links: false;">protoc protos/crawl.proto --go_out=plugins=grpc:protos -I protos/</pre>
2、本地测试
启动本地服务。进入 service_container 目录,然后运行
<pre class="brush:shell;toolbar: true; auto-links: false;">go run service.go</pre>
然后进入 examples 目录,运行
<pre class="brush:shell;toolbar: true; auto-links: false;">go run single_machine_crawl.go --url http://taobao.com</pre>