Python 爬虫之模拟登录
2018-06-18 01:45:37来源:未知 阅读 ()
最近应朋友要求,帮忙爬取了小红书创作平台的数据,感觉整个过程很有意思,因此记录一下。在这之前自己没怎么爬过需要账户登录的网站数据,所以刚开始去看小红书的登录认证时一头雾水,等到一步步走下来,最终成功,思路通了感觉其实还是很简单。
解决思路
一开始我就只有这么一个网址小红书创作平台,和登录账号、密码,然后经过数次试错分析,最终拿出了解决方案。要爬取这个平台的数据,最核心的就是使用 python 模拟浏览器登录进去。探索过程:
1、在登陆界面点击用密码登录,输入账号密码验证码,通过 chrome 调试工具查看请求的 header 会发现,登录时是通过 POST 方式,请求的实际地址是:http://post.xiaohongshu.com/web_api/sns/v1/homerus/user/login_with_passwd,登录需要的参数有五个,分别是账号、密码、token、captcha(图片验证码)、zone 值,其中 zone 是指你所在的国家的区号,例如中国为+86,因此值为 86。那么这里处理比较困难的就是 token 和 captcha
2、token 哪里来的?是什么值?captcha 是图片验证码,怎么处理?我发现进行在登陆界面点击用密码登录这个操作时,实际进行了一次 GET 请求,请求的地址http://post.xiaohongshu.com/api/homerus/login/captcha,并且返回了两个数据:一个是 token,还有一个是验证码图片链接。怎么样?有没有很开心,需要什么就来什么。
3、因为每次登录 token 和 captcha 都会刷新,因此代码里面不能写死。那么对于 captcha 我的处理方式就是把图片下载下来,手动在程序中输入验证码作为参数;那 token 呢?token 我已经获取了啊,直接作为参数即可!
因此解决该模拟登录过程一共三步:
一、通过 get 请求登陆界面获取 token 和图片验证码;
二、token 直接作为参数,验证码手动输入,加上账号、密码、区号作为post 请求登录的参数;
三、登陆成功后的 response header 里有我们需要的 cookie,将其取出拼到新的 request header 里,请求要爬取数据的页面,成功获取数据!
实现过程
具体代码实现就是按照上述思路的,我进行了注释,不再多做说明。
''' 第一步 ''' cookie = cookielib.CookieJar() handler = urllib2.HTTPCookieProcessor(cookie) opener = urllib2.build_opener(handler) r=requests.get('http://post.xiaohongshu.com/api/homerus/login/captcha') token = json.loads(r.text)['data']['token'] # get请求到的token #print token img_url=json.loads(r.text)['data']['url'] picture = opener.open(img_url).read() local = open('F:/code.jpg', 'wb') # 保存验证码到本地 local.write(picture) local.close() ''' 第二步 ''' secret_code = raw_input('输入验证码: ') login_data = { 'phone': '136****0000', 'passwd': 'XXXXXXXXXXXX', 'token': token, # 获取的token 'captcha': secret_code, # 手动输入的验证码 'zone': '86' } headers = {'content-type': 'application/json'} # payload请求方式 res = requests.post('http://post.xiaohongshu.com/web_api/sns/v1/homerus/user/login_with_passwd' ,data=json.dumps(login_data),headers=headers) # 模拟登录 header={ ''' 第三步 ''' 'Accept': 'application / json, text / plain', 'Connection': 'keep - alive', 'Cookie': res.headers['Set-Cookie'].replace(' Path=/','')+'xhs_spid.6d29=21fa0111a09b6c3c' '1516671392.1.15166716811516671392.6d3c3921-2e47-4cbe-b695-698499ac4636; xhs_spses.6d29=*', # 登录成功的cookie拼装在header 'Referer': 'http: // post.xiaohongshu.com /', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36' } resp = requests.get('http://post.xiaohongshu.com/web_api/sns/v1/homerus/note/list?page=1&page_size=200',headers=header) data = json.loads(resp.text)
最终,我成功获取到如下所示的数据集。
网上有很多模拟登录微博豆瓣等网站的教程和代码,但小红书这个平台貌似不太受用,这个思路对于很多需要登陆才能查看数据的网站都应该有帮助,因此分享在这里供参考。
Python学习交流群:238757010
作者:Nekyo
原文链接:https://my.oschina.net/nekyo/blog/1612055
标签:
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点,本站所提供的摄影照片,插画,设计作品,如需使用,请与原作者联系,版权归原作者所有
上一篇:Pandas模块的学习
下一篇:python之websocket
- python3基础之“术语表(2)” 2019-08-13
- python3 之 字符串编码小结(Unicode、utf-8、gbk、gb2312等 2019-08-13
- Python3安装impala 2019-08-13
- 小白如何入门 Python 爬虫? 2019-08-13
- python_字符串方法 2019-08-13
IDC资讯: 主机资讯 注册资讯 托管资讯 vps资讯 网站建设
网站运营: 建站经验 策划盈利 搜索优化 网站推广 免费资源
网络编程: Asp.Net编程 Asp编程 Php编程 Xml编程 Access Mssql Mysql 其它
服务器技术: Web服务器 Ftp服务器 Mail服务器 Dns服务器 安全防护
软件技巧: 其它软件 Word Excel Powerpoint Ghost Vista QQ空间 QQ FlashGet 迅雷
网页制作: FrontPages Dreamweaver Javascript css photoshop fireworks Flash