纯golang爬虫实战(三)

网站上有9000多张照片要下载:

//一开始参考https://www.jb51.net/article/153275.htm用reader和writer进行io.Copy,但经常是抓取100多个网页后就崩溃了,
//原因似乎是输入输出流影响或并发数量影响,代码执行快,输出流写硬盘慢。
//后来参考https://www.cnblogs.com/smartrui/p/12110576.html,改为ioutil.WriteFile直接写文件,还不行
//因为一共才9000多张照片,原来的程序每次下载前400张就崩溃了,应该是并发访问太多,网站受不了。
//于是狠心在主程序中每300个协程时延时2秒,终于成功下载完毕。但总感觉不那么优雅。
代码如下:
package main

import (
    "fmt"
    "io/ioutil"
    "net/http"
    "sync"
    "time"
)

var wg sync.WaitGroup

//保存图片
func savepic(id int) {
    defer wg.Add(-1)
    idstr := fmt.Sprintf("%08d", id)
    url := "http://192.168.13.1:8080/temp/Usr" + idstr + ".tmp"
    resp, err := http.Get(url)
    defer resp.Body.Close()
    if err != nil {
        fmt.Println(err)
    }
    body, err := ioutil.ReadAll(resp.Body)
    if err != nil {
        fmt.Println(err)
    }
    _ = ioutil.WriteFile("pic/"+idstr+".jpg", body, 0755)

}

func main() {
    for id := 2; id < 9202; id++ {
        wg.Add(1)
        go savepic(id)
        if (id % 300) == 0 {
            time.Sleep(time.Duration(2000) * time.Millisecond)
        }
    }
    wg.Wait()
}

猜你喜欢

转载自www.cnblogs.com/pu369/p/12230828.html