- Scrapy教程
- Scrapy - 主页
- Scrapy 基本概念
- Scrapy - 概述
- Scrapy - 环境
- Scrapy - 命令行工具
- Scrapy - 蜘蛛
- Scrapy - 选择器
- Scrapy - 项目
- Scrapy - 物品加载器
- Scrapy - 外壳
- Scrapy - 项目管道
- Scrapy - 饲料出口
- Scrapy - 请求和响应
- Scrapy - 链接提取器
- Scrapy-设置
- Scrapy - 异常
- Scrapy 现场项目
- Scrapy - 创建一个项目
- Scrapy - 定义一个项目
- Scrapy - 第一个蜘蛛
- Scrapy - 爬行
- Scrapy - 提取项目
- Scrapy - 使用项目
- Scrapy - 以下链接
- Scrapy - 抓取数据
- Scrapy 有用的资源
- Scrapy - 快速指南
- Scrapy - 有用的资源
- Scrapy - 讨论
Scrapy - 抓取数据
描述
存储抓取数据的最佳方法是使用 Feed 导出,这可确保使用多种序列化格式正确存储数据。JSON、JSON 行、CSV、XML 是序列化格式中容易支持的格式。可以使用以下命令存储数据 -
scrapy crawl dmoz -o data.json
此命令将创建一个data.json文件,其中包含 JSON 格式的抓取数据。该技术适用于少量数据。如果需要处理大量数据,那么我们可以使用Item Pipeline。就像 data.json 文件一样,在tutorial/pipelines.py中创建项目时会设置一个保留文件。