收藏 400-998-9776 转2 服务时间 周一至周日 9:00-23:00 注意:本站不提供境外服务
您的位置:首页 >文章内容
爬虫怎么构建代理IP池
来源:慕课网fengzhizi715 作者:admin 时间:2018-10-31 14:46:08

做网络爬虫时,一般对代理IP的需求量比较大。因为在爬取网站信息的过程中,很多网站做了反爬虫策略,可能会对每个IP做频次控制。这样我们在爬取网站时就需要很多代理IP。

代理IP的获取,可以从以下几个途径得到:

  • 从免费的网站上获取,质量很低,能用的IP极少

  • 购买收费的代理服务,质量高很多

  • 自己搭建代理服务器,稳定,但需要大量的服务器资源。

本文的代理IP池是通过爬虫事先从多个免费网站上获取代理IP之后,再做检查判断IP是否可用,可用的话就存放到MongoDB中,最后展示到前端的页面上。

获取可用Proxy

获取代理的核心代码是ProxyManager,它采用RxJava2来实现,主要做了以下几件事:

  1. 创建ParallelFlowable,针对每一个提供免费代理IP的页面并行地抓取。

Flowable.fromIterable(ProxyPool.proxyMap.keySet())
                .parallel()
  1. 针对每一个页面进行抓取,返回List

    map(new Function() {
                    @Override
                    public List apply(String s) throws Exception {
    
                        try {
                            return new ProxyPageCallable(s).call();
                        } catch (Exception e) {
                            e.printStackTrace();
                        }
    
                        return null;
                    }
                })
  2. 对每一个页面获取的代理IP列表进行校验,判断是否可用

    flatMap(new Function() {
                    @Override
                    public Publisher apply(List proxies) throws Exception {
    
                        if (proxies == null) return null;
    
                        List result = proxies                            .stream()
                                .parallel()
                                .filter(new Predicate() {
                            @Override
                            public boolean test(Proxy proxy) {
    
                                HttpHost httpHost = new HttpHost(proxy.getIp(), proxy.getPort(), proxy.getType());
                                return HttpManager.get().checkProxy(httpHost);
                            }
                        }).collect(Collectors.toList());
    
                        return Flowable.fromIterable(result);
                    }
                })
  3. 依次保存到proxyList

    subscribe(new Consumer() {
                    @Override
                    public void accept(Proxy proxy) throws Exception {
                        log.debug("Result Proxy = "+proxy.getType()+"://"+proxy.getIp()+":"+proxy.getPort());
                        proxy.setLastSuccessfulTime(new Date().getTime());
                        ProxyPool.proxyList.add(proxy);
                    }
                });

附上完整的流程图
ProxyPool流程.png

再附上完整的ProxyManager代码:

import com.cv4j.proxy.domain.Proxy;import com.cv4j.proxy.http.HttpManager;import com.cv4j.proxy.task.ProxyPageCallable;import io.reactivex.Flowable;import io.reactivex.functions.Consumer;import io.reactivex.functions.Function;import lombok.extern.slf4j.Slf4j;import org.apache.http.HttpHost;import org.reactivestreams.Publisher;import org.springframework.stereotype.Component;import java.util.Date;import java.util.List;import java.util.function.Predicate;import java.util.stream.Collectors;/**
 * Created by tony on 2017/10/25.
 */@Slf4j@Componentpublic class ProxyManager {

    /**
     * 抓取代理,成功的代理存放到ProxyPool中
     */
    public void start() {

        Flowable.fromIterable(ProxyPool.proxyMap.keySet())
                .parallel()
                .map(new Function() {
                    @Override
                    public List apply(String s) throws Exception {

                        try {
                            return new ProxyPageCallable(s).call();
                        } catch (Exception e) {
                            e.printStackTrace();
                        }

                        return null;
                    }
                })
                .flatMap(new Function() {
                    @Override
                    public Publisher apply(List proxies) throws Exception {

                        if (proxies == null) return null;

                        List result = proxies                                .stream()
                                .parallel()
                                .filter(new Predicate() {
                            @Override
                            public boolean test(Proxy proxy) {

                                HttpHost httpHost = new HttpHost(proxy.getIp(), proxy.getPort(), proxy.getType());
                                return HttpManager.get().checkProxy(httpHost);
                            }
                        }).collect(Collectors.toList());

                        return Flowable.fromIterable(result);
                    }
                })
                .sequential()
                .subscribe(new Consumer() {
                    @Override
                    public void accept(Proxy proxy) throws Exception {
                        log.debug("Result Proxy = "+proxy.getType()+"://"+proxy.getIp()+":"+proxy.getPort());
                        proxy.setLastSuccessfulTime(new Date().getTime());
                        ProxyPool.proxyList.add(proxy);
                    }
                });
    }}

定时任务

每隔几个小时跑一次定时任务,在抓取完任务之后先删除旧的数据,然后再把新的数据插入到MongoDB中。

import com.cv4j.proxy.ProxyManager;import com.cv4j.proxy.ProxyPool;import com.cv4j.proxy.dao.ProxyDao;import com.cv4j.proxy.domain.Proxy;import com.safframework.tony.common.utils.Preconditions;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.scheduling.annotation.Scheduled;import org.springframework.stereotype.Component;import java.util.concurrent.CopyOnWriteArrayList;/**
 * Created by tony on 2017/11/22.
 */@Componentpublic class ScheduleJobs {

    @Autowired
    ProxyDao proxyDao;

    @Autowired
    ProxyManager proxyManager;

    /**
     * 每六个小时跑一次任务
     */
    @Scheduled(cron = "0 0 */6 * * ?")
    public void cronJob() {
        System.out.println("Job Start...");

        proxyManager.start();

        CopyOnWriteArrayList list = ProxyPool.proxyList;

        // 先删除旧的数据
        proxyDao.deleteAll();

        // 然后再进行插入新的proxy
        if (Preconditions.isNotBlank(list)) {

            for (Proxy p:list) {

                proxyDao.saveProxy(p);
            }
        }

        System.out.println("Job End...");
    }}

展示到前端

整个项目使用Spring Boot搭建,预览效果如下:

代理列表.jpeg

在使用前,还可以再做一次检测,只要双击某个代理IP即可。

在第二次检测时,对于已经失效的IP会被ProxyPool删除。

总结

在做爬虫时,自己维护一个可用的代理IP池是很有必要的事情,当然想要追求更高稳定性的代理IP还是考虑购买比较好,比如智连代理。

智连代理,动态IP行业领导者,高质流量出口,IP代理全国线路任选,拥有千万IP资源,独享带宽,IP代理秒连秒换,连接切换速度小于等于100ms。支持多种设备,可以免费试用!

精彩推荐:哪一类的代理IP比较好用

推荐阅读
  • 13 2019-07
    快速换IP软件用自动切换ip

    快速换IP软件用自动切换ip,这样换ip会比较快,不然都要手动切换非常慢,因为手动即使加快速度也要几分钟,但是快速换IP软件即不用。

  • 24 2019-10
    为什么爬虫需要代理IP​?

    为什么爬虫需要代理IP​?现在,爬虫程序怎么样安全躲避防爬程序,可以说是一个很普遍的需求了。做网络爬虫时,一般对代理IP的需求量比较大。因为在爬取网站信息的过程中,很多网站做了

  • 28 2019-08
    代理IP的适用范围有哪些?

    代理IP的适用范围有哪些?对于很多人来说代理IP并不算陌生,它的名字在网络营销和数据采集行业里经常出现,因为代理IP​的作用可以帮助他们成功完成各种不同的工作。但是对于大多数人来

  • 01 2019-07
    动态换ip软件好用吗?

    动态换ip软件好用吗?需要换IP的网络用户比较多,有些是因为工作需要,有些是娱乐需求,但是不管是什么样的需求,凡是需要经常性的更换IP地址,这是比较麻烦的,尤其是我们得修改自己的

  • 10 2019-05
    IP代理有便宜又好用的吗?

    爬虫是网络数据中的重要组成部分,然而并不是所有目标网站都心甘情愿共享信息,这时候它们会采取反爬虫手段来抵制,最常见的手段是封禁IP。遇到这种情况就需要IP代理来解决。

  • 20 2018-11
    怎么做外链推广效果好?做外链推广注意事项

    现在网络发展快,但是对于SEO来讲,也有不好的地方,因为越来越多的平台不给发外链,给发外链的平台效果又不好,怎么办呢?怎么做外链推广效果好?