爬取豆瓣电影top250并存储到mysql数据库
2018-06-18 02:28:20来源:未知 阅读 ()
import requests from lxml import etree import re import pymysql import time conn= pymysql.connect(host='localhost',user='root',passwd='root',db='mydb',port=3306,charset='utf8') cursor=conn.cursor() headers={ #'User-Agent':'Nokia6600/1.0 (3.42.1) SymbianOS/7.0s Series60/2.0 Profile/MIDP-2.0 Configuration/CLDC-1.0' 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36' } def get_movie_url(url): html=requests.get(url,headers=headers) selector=etree.HTML(html.text) movie_hrefs=selector.xpath('//div[@class="hd"]/a/@href') for movie_href in movie_hrefs: get_movie_info(movie_href) time.sleep(2) def get_movie_info(url): html=requests.get(url,headers=headers) print("开始") selector=etree.HTML(html.text) try: name=selector.xpath('//*[@id="content"]/h1/span[1]/text()')[0] director=selector.xpath('//*[@id="info"]/span[1]/span[2]/a/text()')[0] actors=selector.xpath('//*[@id="info"]/span[3]/span[2]')[0] actor=actors.xpath('string(.)') #style=selector.xpath('//*[@id="info"]/span[5]/text()')[0] style=re.findall('<span property="v:genre">(.*?)</span>',html.text,re.S) #爬取制片国家不成功 #country=re.findall('<span class="pl">制片国家/地区:</span>(.*?)<b',selector.text,re.S)[0] #country=re.findall('<span property="v:genre">.*?地区:</span>(.*?)<b',selector.text,re.S)[0] #countrys=selector.xpath('//*[@id="info"]/br[4]')[0] #country=selector.xpath('//*[@id="info"]/text()[2]')[0] release_time=re.findall('上映日期:</span>.*?>(.*?)</span>',html.text,re.S)[0] time=re.findall('片长:</span>.*?>(.*?)</span>',html.text,re.S)[0] score=selector.xpath('//*[@id="interest_sectl"]/div[1]/div[2]/strong/text()')[0] cursor.execute("insert into doubanmovie (name,director,actor,style,release_time,time,score)values(%s,%s,%s,%s,%s,%s,%s)",(str(name),str(director),str(actor),str(style),str(release_time),str(time),str(score))) except IndexError: pass if __name__=='__main__': urls=['https://movie.douban.com/top250?start={}'.format(str(i)) for i in range(0,25,25)] for url in urls: get_movie_url(url) time.sleep(2) conn.commit() print("结束")
标签:
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点,本站所提供的摄影照片,插画,设计作品,如需使用,请与原作者联系,版权归原作者所有
- 使用scrapy框架爬取全书网书籍信息。 2019-08-13
- python爬虫学习之爬取超清唯美壁纸 2019-08-13
- xpath+多进程爬取八零电子书百合之恋分类下所有小说。 2019-08-13
- xpath+多进程爬取全书网纯爱耽美类别的所有小说。 2019-08-13
- 电影天堂爬虫 2019-07-24
IDC资讯: 主机资讯 注册资讯 托管资讯 vps资讯 网站建设
网站运营: 建站经验 策划盈利 搜索优化 网站推广 免费资源
网络编程: Asp.Net编程 Asp编程 Php编程 Xml编程 Access Mssql Mysql 其它
服务器技术: Web服务器 Ftp服务器 Mail服务器 Dns服务器 安全防护
软件技巧: 其它软件 Word Excel Powerpoint Ghost Vista QQ空间 QQ FlashGet 迅雷
网页制作: FrontPages Dreamweaver Javascript css photoshop fireworks Flash