scrapy的Request与itemRequest对象123456导入位置from scrapy.http.request import Request参数: url --- 一个网址,yield住之后下次爬取的地址 callback --- 函数名,当request请求爬取回来之后执行的函数 meta --- request与回调函数之间传递参数使用,传字典 Item对象123456789101112131415161718191.导入from scrapy import Item2.自己写一个类并且继承Item类eg:class FirstscrapyItem(scrapy.Item): name = scrapy.Field() 当你在程序中yield住一个Item对象之后,程序便会自动去保存3.在爬虫程序中每爬取一页都实例化一个对象item = FirstscrapyItem()ps:往这个对象中存值只能使用[]的方式,不能用.eg:item['url'] = url4.yield返回该值即可,接下来他会根据settings中的配置去pipline中找到对应的类并进行持久化存储ITEM_PIPELINES = { 'firstscrapy.pipelines.FirstscrapyPipeline': 300, #类的位置,后面的数字是优先级} 数据的持久化操作12341.使用命令我们只需要在执行文件后添加一个-o 路径即可eg:scrapy crawl first -o ./qiubai.csv以该方式存储的只能为'json', 'jsonlines', 'jl', 'csv', 'xml', 'marshal', 'pickle'这些格式