利用Python爬取几百万github数据!这些源码都是…

2018-08-10 11:26:55来源:博客园 阅读 ()

新老客户大回馈,云服务器低至5折

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

进群:548377875   即可获取数十套PDF哦!

看到这么简单的流程,内心的第一想法就是先简单的写一个递归实现呗,要是性能差再慢慢优化,所以第一版代码很快就完成了(在目录recursion下)。数据存储使用mongo,重复请求判断使用的redis,写mongo数据采用celery的异步调用,需要rabbitmq服务正常启动,在settings.py正确配置后,使用下面的步骤启动:

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

这是按粉丝数降序排列的用户列表

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

运行缺陷

作为一个有追求的程序员,当然不能因为一点小成就满足,总结一下递归实现的几个缺陷:

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

异步优化

针对这种I/O耗时的问题,解决方法也就那几种,要么多并发,要么走异步访问,要么双管齐下。针对上面的问题2,我最开始的解决方式是异步请求API。因为最开始写代码的时候考虑到了这点,代码对调用方法已经做过优化,很快就改好了,实现方式使用了grequests。这个库和requests是同一个作者,代码也非常的简单,就是讲request请求用gevent做了一个简单的封装,可以非阻塞的请求数据。

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

运行程序

为了实现多级部署(虽然我就只有一台机器),消息队列使用了rabbitmq,需要创建名为github,类型是direct的exchange,然后创建四个名称分别为user, repo, follower, following的队列,详细的绑定关系见下图:

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

 

嘿嘿 还是挺好玩的。如果对你有帮助,评论666.谢谢大家阅读!

标签:

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点,本站所提供的摄影照片,插画,设计作品,如需使用,请与原作者联系,版权归原作者所有

上一篇:程序员没女朋友?一定是你的操作不够骚

下一篇:Python 1-3区分Python文件的两种用途和模块的搜索路径