用python爬取app照片
2018-06-17 23:43:35来源:未知 阅读 ()
首先下载一个斗鱼(不下载也可以,url都在这了对吧)
通过抓包,抓取到一个json的数据包,得到下面的地址
观察测试可知,通过修改offset值就是相当于app的翻页
访问这个url,返回得到的是一个大字典,字典里面两个索引,一个error,一个data。而data又是一个长度为20的数组,每个数组又是一个字典。每个字典中又有一个索引,vertical_src。
我们的目标就是它了!
1 import urllib.parse 2 import urllib 3 import json 4 import urllib.request 5 data_info={} 6 data_info['type']='AUTO' 7 data_info['doctype']='json' 8 data_info['xmlVersion']='1.6' 9 data_info['ue']='UTF-8' 10 data_info['typoResult']='true' 11 head_info={} 12 head_info['User-Agent']='DYZB/2.271 (iphone; iOS 9.3.2; Scale/3.00)' 13 url='http://capi.douyucdn.cn/api/v1/getVerticalRoom?aid=ios&client_sys=ios&limit=20&offset=20' 14 data_info=urllib.parse.urlencode(data_info).encode('utf-8') 15 print(data_info) 16 requ=urllib.request.Request(url,data_info) 17 requ.add_header('Referer','http://capi.douyucdn.cn') 18 requ.add_header('User-Agent','DYZB/2.271 (iphone; iOS 9.3.2; Scale/3.00)') 19 response=urllib.request.urlopen(requ) 20 print(response) 21 html=response.read().decode('utf-8')
这短短20多行代码就能返回得到json数据了。然后再通过对这json代码的切片,分离得到每个主播照片的url地址。
然后得到这一页的照片
1 import json 2 import urllib.request 3 data_info={} 4 data_info['type']='AUTO' 5 data_info['doctype']='json' 6 data_info['xmlVersion']='1.6' 7 data_info['ue']='UTF-8' 8 data_info['typoResult']='true' 9 1011 url+str(i)='http://capi.douyucdn.cn/api/v1/getVerticalRoom?aid=ios&client_sys=ios&limit=20&offset='+str(x) 12 data_info=urllib.parse.urlencode(data_info).encode('utf-8') 13 print(data_info) 14 requ=urllib.request.Request(url,data_info) 15 requ.add_header('Referer','http://capi.douyucdn.cn') 16 requ.add_header('User-Agent','DYZB/2.271 (iphone; iOS 9.3.2; Scale/3.00)') 17 response=urllib.request.urlopen(requ) 18 print(response) 19 html=response.read().decode('utf-8') 20 ''' 21 print(type(dictionary)) 22 print(type(dictionary[data])) 23 ''' 24 dictionary=json.loads(html) 25 data_arr=dictionary["data"] 26 for i in range(0,19): 27 name=data_arr[i]["nickname"] 28 img_url=data_arr[i]["vertical_src"] 29 print(type(img_url)) 30 respon_tem=urllib.request.urlopen(img_url) 31 anchor_img=respon_tem.read() 32 with open('../photos/'+name+'.jpg','wb') as f: 33 f.write(anchor_img)
然后修改一下,让它有了翻页的功能
1 import urllib.parse 2 import urllib 3 import json 4 import urllib.request 5 data_info={} 6 data_info['type']='AUTO' 7 data_info['doctype']='json' 8 data_info['xmlVersion']='1.6' 9 data_info['ue']='UTF-8' 10 data_info['typoResult']='true' 11 data_info=urllib.parse.urlencode(data_info).encode('utf-8') 12 13 for x in range(0,195): 14 url='http://capi.douyucdn.cn/api/v1/getVerticalRoom?aid=ios&client_sys=ios&limit=20&offset='+str(x) 15 print(data_info) 16 requ=urllib.request.Request(url,data_info) 17 requ.add_header('Referer','http://capi.douyucdn.cn') 18 requ.add_header('User-Agent','DYZB/2.271 (iphone; iOS 9.3.2; Scale/3.00)') 19 response=urllib.request.urlopen(requ) 20 print(response) 21 html=response.read().decode('utf-8') 22 dictionary=json.loads(html) 23 data_arr=dictionary["data"] 24 for i in range(0,19): 25 name=data_arr[i]["nickname"] 26 img_url=data_arr[i]["vertical_src"] 27 print(type(img_url)) 28 respon_tem=urllib.request.urlopen(img_url) 29 anchor_img=respon_tem.read() 30 with open('../photos/'+name+'.jpg','wb') as f: 31 f.write(anchor_img)
然后就等着吧~~
最好设置一下时间,每隔多久爬一次,或者每隔多久更换一次ip。就行了
标签:
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点,本站所提供的摄影照片,插画,设计作品,如需使用,请与原作者联系,版权归原作者所有
上一篇:Python 类和对象-上
下一篇:python 笔记
- python3基础之“术语表(2)” 2019-08-13
- python3 之 字符串编码小结(Unicode、utf-8、gbk、gb2312等 2019-08-13
- Python3安装impala 2019-08-13
- 小白如何入门 Python 爬虫? 2019-08-13
- python_字符串方法 2019-08-13
IDC资讯: 主机资讯 注册资讯 托管资讯 vps资讯 网站建设
网站运营: 建站经验 策划盈利 搜索优化 网站推广 免费资源
网络编程: Asp.Net编程 Asp编程 Php编程 Xml编程 Access Mssql Mysql 其它
服务器技术: Web服务器 Ftp服务器 Mail服务器 Dns服务器 安全防护
软件技巧: 其它软件 Word Excel Powerpoint Ghost Vista QQ空间 QQ FlashGet 迅雷
网页制作: FrontPages Dreamweaver Javascript css photoshop fireworks Flash