热爱生活,从电影开始"/>
热爱生活,从电影开始
人和人刚认识的时候,虚伪又热情,新鲜又浪漫。即使生活再不好,也要爱自己,比如多看点电影,一起感悟下人生也是蛮好的,本次小编就来试着爬取了豆瓣电影Top 250来小试牛刀,快跟着小编一起探索吧,不喜勿喷哦~
1、创建Scrapy项目
创建一个新项目,用于爬取豆瓣电影排行榜
命令:
scrapy startproject DoubanMovies
截图:
创建完后使用Pycharm打开创建的新项目
2、创建Scrapy程序
使用命令创建一个scrapy程序,名字随你就好,毕竟只是一个程序名而已
命令:
scrapy genspider douban douban.com
截图:
3、配置数据库等信息
在settings.py里面设置你要保存的数据库信息
BOT_NAME = 'DoubanMovies'SPIDER_MODULES = ['DoubanMovies.spiders']
NEWSPIDER_MODULE = 'DoubanMovies.spiders'# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36 Edg/86.0.622.69'# Obey robots.txt rules
ROBOTSTXT_OBEY = True#HTTPERROR_ALLOWED_CODES = [400]#上面报的是403,就把403加入。# MONGODB地址
MONGODB_HOST = '127.0.0.1'
# 端口号,默认27017
MONGODB_PORT = 27017
# 设置数据库名称
MONGODB_DBNAME = 'Douban'
# 设置集合名称
MONGODB_COL = 'movies'
ITEM_PIPELINES = {'DoubanMovies.pipelines.DoubanmoviesPipeline': 300,
}
在pipelines.py里面设置数据管道,这里小编封装了一层,数据库和集合的名字可以在程序中传递过来
from pymongo import MongoClientfrom DoubanMovies import settingsclass DoubanmoviesPipeline:def __init__(self):# 获取setting中主机名,端口号和集合名host = settings.MONGODB_HOSTport = settings.MONGODB_PORT# dbname = settings.MONGODB_DBNAME# col = settings.MONGODB_COL# 创建一个mongo实例client = MongoClient(host=host, port=port)# 访问数据库# db = client[dbname]# 访问集合# self.col = db[col]# 访问数据连接器self.client = clientdef process_item(self, item, spider):data = dict(item)my_dbname = spider.dbname #自定义的数据库名--来自scrapy程序里面的dbnamemy_col = spider.col #自定义的集合名--来自scrapy程序里面的colself.client[my_dbname][my_col].insert(data)# self.col.insert(data)return item
然后打开目标网站:豆瓣电影 Top 250 (douban.com),然后分析网站结构,比如需要爬取电影名字,排名,导演以及主演等信息
打开F12,对你想要爬取的元素,可以复制其对应的xpath路径,爬取数据的时候会用到
分析完目标网站后,在items.py里面定义想要爬取的字段
#用于保存电影数据的item
class DoubanMovieItem(scrapy.Item):movie_name = scrapy.Field() # 电影名字rank = scrapy.Field() # 电影排名actors = scrapy.Field() #导演以及主演year = scrapy.Field() #上映年份area = scrapy.Field() #地域type = scrapy.Field() #类型rating_num = scrapy.Field() #评分short_comment = scrapy.Field() #短评
4、编写爬取程序
上面的数据库配置以及item设置好之后,开始编写爬取程序,注意xpath路径的正确性,不然爬取不到目标数据
由于要爬取前250名的电影数据,比较笨的方法就是start_urls里面写多个要爬取的url,比如像小编这样写的简单明了
import scrapyfrom DoubanMovies.items import DoubanMovieItemclass DoubanSpider(scrapy.Spider):name = 'douban' #scrapy程序名allowed_domains = ['douban.com'] #允许的域名dbname = 'Douban' # 数据库名字col = 'douban_movie250' # 集合名字start_urls = ['','=25','=50','=75','=100','=125','=150','=175','=200','=225'] #需要爬取的网站url列表def parse(self, response):print(response)list = response.xpath('//*[@id="content"]/div/div[1]/ol/li') #xpath目标列表for li in list:# print(li)rank = li.xpath('div/div[1]/em/text()').extract()[0]movie_name = li.xpath('div/div[2]/div[1]/a/span[1]/text()').extract()[0]actors = li.xpath('div/div[2]/div[2]/p[1]/text()').extract()[0].strip()year = li.xpath('div/div[2]/div[2]/p[1]/text()').extract()[1].strip()rating_num = li.xpath('div/div[2]/div[2]/div/span[2]/text()').extract()[0].strip()if li.xpath('div/div[2]/div[2]/p[2]/span/text()').extract():short_comment = li.xpath('div/div[2]/div[2]/p[2]/span/text()').extract()[0].strip()else:short_comment = ''print(rank + ":" + movie_name + ":" + rating_num + ":" + short_comment)item = DoubanMovieItem()item['rank'] = int(rank) #排名item['movie_name'] = movie_name #电影名item['actors'] = actors #演职员item['year'] = year.split('/')[0] #上映年份item['area'] = year.split('/')[1] #上映地区item['type'] = year.split('/')[2] #电影类型item['rating_num'] = rating_num #豆瓣评分item['short_comment'] = short_comment #短评yield item #保存数据
5、开始爬取数据
程序写好了之后,就可以开始爬取数据了,当然过程中可能会有报错之类的,那就只能靠你自己修正了~
爬取命令:
scrapy crawl douban
爬取命令截图:
爬取过程截图:
爬取结果截图:
PS:以上便是简单的豆瓣电影Top 250的爬取过程了,相信热爱生活的你,能一直对生活充满好奇心,毕竟生活要有点期待,潇洒一点,开心最重要~
更多推荐
热爱生活,从电影开始
发布评论