Scrapy提取数据有自己的一套机制|scrapypider数据选择器py文件的使用方法( 三 )


self.fieldnames=["ID","P_name","P_price","seller","P_url",]
#指定文件的写入方式为csv字典写入 , 参数1为指定具体文件 , 参数2为指定字段名
self.writer=csv.DictWriter(self.file,fieldnames=self.fieldnames)
#写入第一行字段名 , 因为只需写入一次 , 所以放在__init__里面
self.writer.writeheader
defprocess_item(self,item,spider):
#写入spider传过来的具体数值
self.writer.writerow(item)
#写入完返回
returnitem
defclose(self,spider):
self.file.close
8

运行爬虫文件
在命令提示符窗口中 , 输入如下命令运行爬虫 , 其效果如图7-12和图7-13所示 。 当然 , 也可以按照7.1.5节中介绍的方法 , 建立启动文件 , 采用直接运行Python程序的方式来启动爬虫 。
Scrapycrawljdgw
04
源代码下载
关注微信公众号 , 后台回复关键词“商品列表爬取”即可获得完整源代码 。
05
参考书籍
《Python边做边学-微课视频版》
ISBN:978-7-302-56793-6
陈秀玲田荣明冉涌主编
定价:49.8元
内容简介
本书采用项目化教程的模式 , 以理论讲解与实战案例演练相结合的方式 , 以知识点为主线 , 将每个项目按照知识点拆解分为多个任务 , 每个任务均以充满趣味性的游戏入手 , 系统、全面、循序渐进地讲解Python知识点 , 使读者能够学以致用 , 融会贯通 。 全书共分为8个项目 , 分别是认识新朋友(Python)、开启编程之旅、高级编程之路、叩开面向对象编程之门、异常处理、Python图形界面设计、网络爬虫和使用Python操作数据库 。 本书的每个知识点都有相应的实现代码 , 并配有详细的注释说明 , 便于读者快速理解和掌握 。
本书适合零基础的读者 , 也可作为高等院校的教材 , 还可供相关领域的广大科研人员、从事大数据分析、数据爬取或深度学习的专业人员等作为参考书使用 。