- Scrapy教程
- Scrapy - 主页
- Scrapy 基本概念
- Scrapy - 概述
- Scrapy - 环境
- Scrapy - 命令行工具
- Scrapy - 蜘蛛
- Scrapy - 选择器
- Scrapy - 项目
- Scrapy - 物品加载器
- Scrapy - 外壳
- Scrapy - 项目管道
- Scrapy - 饲料出口
- Scrapy - 请求和响应
- Scrapy - 链接提取器
- Scrapy-设置
- Scrapy - 异常
- Scrapy 现场项目
- Scrapy - 创建一个项目
- Scrapy - 定义一个项目
- Scrapy - 第一个蜘蛛
- Scrapy - 爬行
- Scrapy - 提取项目
- Scrapy - 使用项目
- Scrapy - 以下链接
- Scrapy - 抓取数据
- Scrapy 有用的资源
- Scrapy - 快速指南
- Scrapy - 有用的资源
- Scrapy - 讨论
Scrapy - 物品加载器
描述
项目加载器提供了一种便捷的方法来填充从网站上抓取的项目。
声明项目加载器
Item Loaders 的声明就像 Items 一样。
例如 -
from scrapy.loader import ItemLoader from scrapy.loader.processors import TakeFirst, MapCompose, Join class DemoLoader(ItemLoader): default_output_processor = TakeFirst() title_in = MapCompose(unicode.title) title_out = Join() size_in = MapCompose(unicode.strip) # you can continue scraping here
在上面的代码中,您可以看到输入处理器是使用_in后缀声明的,输出处理器是使用_out后缀声明的。
ItemLoader.default_input_processor和ItemLoader.default_output_processor属性用于声明默认输入/输出处理器。
使用项目加载器填充项目
要使用 Item Loader,首先使用类似 dict 的对象进行实例化,或者在项目使用ItemLoader.default_item_class属性中指定的 Item 类的情况下不使用该对象进行实例化。
您可以使用选择器将值收集到项目加载器中。
您可以在同一项目字段中添加更多值,项目加载器将使用适当的处理程序来添加这些值。
以下代码演示了如何使用项目加载器填充项目 -
from scrapy.loader import ItemLoader from demoproject.items import Demo def parse(self, response): l = ItemLoader(item = Product(), response = response) l.add_xpath("title", "//div[@class = 'product_title']") l.add_xpath("title", "//div[@class = 'product_name']") l.add_xpath("desc", "//div[@class = 'desc']") l.add_css("size", "div#size]") l.add_value("last_updated", "yesterday") return l.load_item()
如上所示,有两个不同的 XPath,使用add_xpath()方法从中提取标题字段-
1. //div[@class = "product_title"]
2. //div[@class = "product_name"]
此后,对desc字段使用类似的请求。使用add_css()方法提取大小数据,并使用add_value()方法将last_updated填充为值“昨天” 。
收集完所有数据后,调用ItemLoader.load_item()方法,该方法返回填充了使用add_xpath()、add_css()和add_value()方法提取的数据的项目。
输入和输出处理器
项目加载器的每个字段包含一个输入处理器和一个输出处理器。
提取数据后,输入处理器对其进行处理,并将其结果存储在 ItemLoader 中。
接下来,收集数据后,调用 ItemLoader.load_item() 方法来获取填充的 Item 对象。
最后,您可以将输出处理器的结果分配给该项目。
以下代码演示了如何调用特定字段的输入和输出处理器 -
l = ItemLoader(Product(), some_selector) l.add_xpath("title", xpath1) # [1] l.add_xpath("title", xpath2) # [2] l.add_css("title", css) # [3] l.add_value("title", "demo") # [4] return l.load_item() # [5]
第 1 行- 标题数据从 xpath1 中提取并通过输入处理器,其结果被收集并存储在 ItemLoader 中。
第 2 行- 类似地,标题是从 xpath2 中提取的,并通过相同的输入处理器,其结果将添加到为 [1] 收集的数据中。
第 3 行- 标题从 css 选择器中提取并通过相同的输入处理器传递,并将结果添加到为 [1] 和 [2] 收集的数据中。
第 4 行- 接下来,分配值“demo”并通过输入处理器传递。
第 5 行- 最后,从所有字段内部收集数据并将其传递到输出处理器,并将最终值分配给项目。
声明输入和输出处理器
输入和输出处理器在 ItemLoader 定义中声明。除此之外,它们还可以在项目字段元数据中指定。
例如 -
import scrapy from scrapy.loader.processors import Join, MapCompose, TakeFirst from w3lib.html import remove_tags def filter_size(value): if value.isdigit(): return value class Item(scrapy.Item): name = scrapy.Field( input_processor = MapCompose(remove_tags), output_processor = Join(), ) size = scrapy.Field( input_processor = MapCompose(remove_tags, filter_price), output_processor = TakeFirst(), ) >>> from scrapy.loader import ItemLoader >>> il = ItemLoader(item = Product()) >>> il.add_value('title', [u'Hello', u'<strong>world</strong>']) >>> il.add_value('size', [u'<span>100 kg</span>']) >>> il.load_item()
它将输出显示为 -
{'title': u'Hello world', 'size': u'100 kg'}
项目加载器上下文
项目加载器上下文是在输入和输出处理器之间共享的任意键值的字典。
例如,假设您有一个函数parse_length -
def parse_length(text, loader_context): unit = loader_context.get('unit', 'cm') # You can write parsing code of length here return parsed_length
通过接收 loader_context 参数,它告诉 Item Loader 它可以接收 Item Loader 上下文。有多种方法可以更改项目加载器上下文的值 -
修改当前活动的项目加载器上下文 -
loader = ItemLoader (product) loader.context ["unit"] = "mm"
在项目加载器实例化上 -
loader = ItemLoader(product, unit = "mm")
在使用项目加载器上下文实例化的输入/输出处理器的项目加载器声明上 -
class ProductLoader(ItemLoader): length_out = MapCompose(parse_length, unit = "mm")
项目加载器对象
它是一个返回新项目加载器以填充给定项目的对象。它有以下类别 -
class scrapy.loader.ItemLoader([item, selector, response, ]**kwargs)
下表显示了 ItemLoader 对象的参数 -
先生编号 | 参数及说明 |
---|---|
1 | 物品 它是通过调用 add_xpath()、add_css() 或 add_value() 来填充的项目。 |
2 | 选择器 它用于从网站中提取数据。 |
3 | 回复 它用于使用default_selector_class构造选择器。 |
下表显示了 ItemLoader 对象的方法 -
先生编号 | 方法及说明 | 例子 |
---|---|---|
1 | get_value(值, *处理器, **kwargs) 通过给定的处理器和关键字参数,该值由 get_value() 方法处理。 |
>>> from scrapy.loader.processors import TakeFirst >>> loader.get_value(u'title: demoweb', TakeFirst(), unicode.upper, re = 'title: (.+)') 'DEMOWEB` |
2 | add_value(字段名称、值、*处理器、**kwargs) 它处理该值,并在通过字段输入处理器之前通过提供处理器和关键字参数将其添加到首先通过 get_value 传递的字段中。 |
loader.add_value('title', u'DVD') loader.add_value('colors', [u'black', u'white']) loader.add_value('length', u'80') loader.add_value('price', u'2500') |
3 | 替换值(字段名称,值,*处理器,**kwargs) 它将收集的数据替换为新值。 |
loader.replace_value('title', u'DVD') loader.replace_value('colors', [u'black', u'white']) loader.replace_value('length', u'80') loader.replace_value('price', u'2500') |
4 | get_xpath(xpath, *处理器, **kwargs) 它用于通过接收XPath提供处理器和关键字参数来提取 unicode 字符串。 |
# HTML code: <div class = "item-name">DVD</div> loader.get_xpath("//div[@class = 'item-name']") # HTML code: <div id = "length">the length is 45cm</div> loader.get_xpath("//div[@id = 'length']", TakeFirst(), re = "the length is (.*)") |
5 | add_xpath(字段名称,xpath,*处理器,**kwargs) 它接收提取 unicode 字符串的字段的XPath 。 |
# HTML code: <div class = "item-name">DVD</div> loader.add_xpath('name', '//div [@class = "item-name"]') # HTML code: <div id = "length">the length is 45cm</div> loader.add_xpath('length', '//div[@id = "length"]', re = 'the length is (.*)') |
6 | Replace_xpath(字段名称,xpath,*处理器,**kwargs) 它使用XPath替换从站点收集的数据。 |
# HTML code: <div class = "item-name">DVD</div> loader.replace_xpath('name', ' //div[@class = "item-name"]') # HTML code: <div id = "length">the length is 45cm</div> loader.replace_xpath('length', ' //div[@id = "length"]', re = 'the length is (.*)') |
7 | get_css(css, *处理器, **kwargs) 它接收用于提取 unicode 字符串的 CSS 选择器。 |
loader.get_css("div.item-name") loader.get_css("div#length", TakeFirst(), re = "the length is (.*)") |
8 | add_css(field_name, css, *处理器, **kwargs) 它与 add_value() 方法类似,但有一点不同,它将 CSS 选择器添加到字段中。 |
loader.add_css('name', 'div.item-name') loader.add_css('length', 'div#length', re = 'the length is (.*)') |
9 | Replace_css(field_name, css, *处理器, **kwargs) 它使用 CSS 选择器替换提取的数据。 |
loader.replace_css('name', 'div.item-name') loader.replace_css('length', 'div#length', re = 'the length is (.*)') |
10 | 加载项() 收集数据后,此方法会用收集的数据填充该项目并返回它。 |
def parse(self, response): l = ItemLoader(item = Product(), response = response) l.add_xpath('title', '// div[@class = "product_title"]') loader.load_item() |
11 | 嵌套_xpath(xpath) 它用于使用 XPath 选择器创建嵌套加载器。 |
loader = ItemLoader(item = Item()) loader.add_xpath('social', ' a[@class = "social"]/@href') loader.add_xpath('email', ' a[@class = "email"]/@href') |
12 | 嵌套CSS(CSS) 它用于使用 CSS 选择器创建嵌套加载器。 |
loader = ItemLoader(item = Item()) loader.add_css('social', 'a[@class = "social"]/@href') loader.add_css('email', 'a[@class = "email"]/@href') |
下表显示了 ItemLoader 对象的属性 -
先生编号 | 属性及描述 |
---|---|
1 | 物品 它是项目加载器执行解析的对象。 |
2 | 语境 项目加载器的当前上下文处于活动状态。 |
3 | 默认项目类别 如果构造函数中未给出,则它用于表示项目。 |
4 | 默认输入处理器 未指定输入处理器的字段是唯一使用default_input_processors 的字段。 |
5 | 默认输出处理器 未指定输出处理器的字段是唯一使用 default_output_processors 的字段。 |
6 | 默认选择器类 如果构造函数中未给出,则它是用于构造选择器的类。 |
7 | 选择器 它是一个可用于从站点提取数据的对象。 |
嵌套加载器
它用于在解析文档子部分中的值时创建嵌套加载器。如果您不创建嵌套加载器,则需要为要提取的每个值指定完整的 XPath 或 CSS。
例如,假设数据是从标题页中提取的 -
<header> <a class = "social" href = "http://facebook.com/whatever">facebook</a> <a class = "social" href = "http://twitter.com/whatever">twitter</a> <a class = "email" href = "mailto:someone@example.com">send mail</a> </header>
接下来,您可以通过向标头添加相关值来创建带有标头选择器的嵌套加载器 -
loader = ItemLoader(item = Item()) header_loader = loader.nested_xpath('//header') header_loader.add_xpath('social', 'a[@class = "social"]/@href') header_loader.add_xpath('email', 'a[@class = "email"]/@href') loader.load_item()
重用和扩展项目加载器
项目加载器旨在减轻维护工作,当您的项目获得更多蜘蛛时,维护工作将成为一个基本问题。
例如,假设某个站点的产品名称包含在三个破折号中(例如 --DVD---)。如果您不希望它出现在最终产品名称中,您可以通过重用默认的产品项加载器来删除这些破折号,如以下代码所示 -
from scrapy.loader.processors import MapCompose from demoproject.ItemLoaders import DemoLoader def strip_dashes(x): return x.strip('-') class SiteSpecificLoader(DemoLoader): title_in = MapCompose(strip_dashes, DemoLoader.title_in)
可用的内置处理器
以下是一些常用的内置处理器 -
类 scrapy.loader.processors.Identity
它返回原始值而不改变它。例如 -
>>> from scrapy.loader.processors import Identity >>> proc = Identity() >>> proc(['a', 'b', 'c']) ['a', 'b', 'c']
类 scrapy.loader.processors.TakeFirst
它返回接收值列表中第一个非空/非空的值。例如 -
>>> from scrapy.loader.processors import TakeFirst >>> proc = TakeFirst() >>> proc(['', 'a', 'b', 'c']) 'a'
类 scrapy.loader.processors.Join(separator = u' ')
它返回附加到分隔符的值。默认分隔符是 u' ',它相当于函数u' '.join。例如 -
>>> from scrapy.loader.processors import Join >>> proc = Join() >>> proc(['a', 'b', 'c']) u'a b c' >>> proc = Join('<br>') >>> proc(['a', 'b', 'c']) u'a<br>b<br>c'
类 scrapy.loader.processors.Compose(*functions, **default_loader_context)
它由处理器定义,其中每个输入值都传递给第一个函数,该函数的结果传递给第二个函数,依此类推,直到 ast 函数返回最终值作为输出。
例如 -
>>> from scrapy.loader.processors import Compose >>> proc = Compose(lambda v: v[0], str.upper) >>> proc(['python', 'scrapy']) 'PYTHON'
类 scrapy.loader.processors.MapCompose(*functions, **default_loader_context)
它是一个处理器,其中迭代输入值并将第一个函数应用于每个元素。接下来,这些函数调用的结果被连接起来构建新的可迭代对象,然后将其应用于第二个函数,依此类推,直到最后一个函数。
例如 -
>>> def filter_scrapy(x): return None if x == 'scrapy' else x >>> from scrapy.loader.processors import MapCompose >>> proc = MapCompose(filter_scrapy, unicode.upper) >>> proc([u'hi', u'everyone', u'im', u'pythonscrapy']) [u'HI, u'IM', u'PYTHONSCRAPY']
类 scrapy.loader.processors.SelectJmes(json_path)
此类使用提供的 json 路径查询值并返回输出。
例如 -
>>> from scrapy.loader.processors import SelectJmes, Compose, MapCompose >>> proc = SelectJmes("hello") >>> proc({'hello': 'scrapy'}) 'scrapy' >>> proc({'hello': {'scrapy': 'world'}}) {'scrapy': 'world'}
以下是通过导入 json 查询值的代码 -
>>> import json >>> proc_single_json_str = Compose(json.loads, SelectJmes("hello")) >>> proc_single_json_str('{"hello": "scrapy"}') u'scrapy' >>> proc_json_list = Compose(json.loads, MapCompose(SelectJmes('hello'))) >>> proc_json_list('[{"hello":"scrapy"}, {"world":"env"}]') [u'scrapy']