- Scrapy教程
- Scrapy - 主页
- Scrapy 基本概念
- Scrapy - 概述
- Scrapy - 环境
- Scrapy - 命令行工具
- Scrapy - 蜘蛛
- Scrapy - 选择器
- Scrapy - 项目
- Scrapy - 物品加载器
- Scrapy - 外壳
- Scrapy - 项目管道
- Scrapy - 饲料出口
- Scrapy - 请求和响应
- Scrapy - 链接提取器
- Scrapy-设置
- Scrapy - 异常
- Scrapy 现场项目
- Scrapy - 创建一个项目
- Scrapy - 定义一个项目
- Scrapy - 第一个蜘蛛
- Scrapy - 爬行
- Scrapy - 提取项目
- Scrapy - 使用项目
- Scrapy - 以下链接
- Scrapy - 抓取数据
- Scrapy 有用的资源
- Scrapy - 快速指南
- Scrapy - 有用的资源
- Scrapy - 讨论
Scrapy - 第一个蜘蛛
描述
Spider 是一个类,它定义了从中提取数据的初始 URL、如何跟踪分页链接以及如何提取和解析items.py中定义的字段。Scrapy 提供了不同类型的蜘蛛,每种蜘蛛都有特定的用途。
在first_scrapy/spiders目录下创建一个名为“first_spider.py”的文件,我们可以在其中告诉Scrapy如何找到我们正在寻找的确切数据。为此,您必须定义一些属性 -
name - 它定义蜘蛛的唯一名称。
allowed_domains - 它包含蜘蛛抓取的基本 URL。
start-urls - 蜘蛛开始爬行的 URL 列表。
parse() - 这是一种提取和解析抓取数据的方法。
以下代码演示了蜘蛛代码的样子 -
import scrapy class firstSpider(scrapy.Spider): name = "first" allowed_domains = ["dmoz.org"] start_urls = [ "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/", "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/" ] def parse(self, response): filename = response.url.split("/")[-2] + '.html' with open(filename, 'wb') as f: f.write(response.body)