当前位置: 首页 > news >正文

scrapy基础知识之发送GET请求

你想掌握 Scrapy 框架中发送 GET 请求的核心知识,这是 Scrapy 爬虫最基础、最常用的操作 ——GET 请求主要用于爬取静态页面、带 URL 参数的列表页 / 搜索页等场景,也是新手入门 Scrapy 的第一个核心技能。我会从基础用法、灵活配置、避坑要点三个维度详细讲解。

一、Scrapy 发送 GET 请求的两种核心方式

Scrapy 中发送 GET 请求分「自动发送」和「手动构造」两种形式,分别适配不同场景:

方式适用场景特点
start_urls自动发送无自定义参数的简单起始请求代码最简,无需手动构造 Request 对象
scrapy.Request()手动构造需自定义请求头、参数、回调函数等灵活度高,适配复杂场景(分页、反爬)
1. 方式 1:start_urls自动发送(最简入门)

Scrapy 的Spider类中,start_urls是默认的起始 URL 列表,框架会自动对列表中每个 URL 发送GET 请求,并将响应交给parse方法处理(默认回调函数)。

python

import scrapy class BasicGetSpider(scrapy.Spider): # 爬虫唯一标识(必须) name = "basic_get" # 起始URL列表,Scrapy自动发送GET请求 start_urls = [ "https://example.com/page1", "https://example.com/page2" ] def parse(self, response): """处理GET请求的响应(默认回调函数)""" # 提取页面核心数据(示例:URL、状态码、页面标题) yield { "request_url": response.url, # 请求的URL "status_code": response.status, # 响应状态码(200=成功) "page_title": response.xpath('//title/text()').get() # 提取标题(推荐用get()) }
2. 方式 2:scrapy.Request()手动构造(灵活配置)

当需要自定义请求头、URL 参数、回调函数等时,需重写start_requests()方法,手动构造scrapy.Request对象并yield出去(核心:GET 是Request的默认请求方法,无需额外指定method)。

2.1 基础手动构造

python

import scrapy class ManualGetSpider(scrapy.Spider): name = "manual_get" def start_requests(self): """重写起始请求方法,手动构造GET请求""" # 基础GET请求(自定义回调函数) yield scrapy.Request( url="https://example.com", callback=self.parse_homepage, # 自定义回调函数(替代默认的parse) dont_filter=True # 可选:禁用URL去重(避免重复请求被过滤) ) def parse_homepage(self, response): """处理首页响应""" yield { "home_title": response.css("title::text").get(), # CSS选择器提取标题 "home_url": response.url }
2.2 带 URL 参数的 GET 请求(分页 / 搜索场景)

爬取分页列表、搜索结果时,GET 请求通常带 URL 参数(如?page=2&keyword=python),推荐用urllib.parse.urlencode()拼接参数,避免手动拼接的编码问题(如中文、特殊字符)。

python

import scrapy from urllib.parse import urlencode class ParamsGetSpider(scrapy.Spider): name = "params_get" def start_requests(self): # 定义URL参数(分页+关键词) base_url = "https://example.com/list" # 爬取第1-3页 for page in range(1, 4): params = { "page": page, "keyword": "Scrapy教程" # 中文参数也能自动编码 } # 拼接参数到URL(urlencode自动处理编码) full_url = f"{base_url}?{urlencode(params)}" yield scrapy.Request( url=full_url, meta={"page_num": page}, # 传递分页号到回调函数 callback=self.parse_list ) def parse_list(self, response): """处理列表页响应""" # 从meta中获取分页号(请求→回调的数据传递) page_num = response.meta["page_num"] # 提取列表项数量 item_count = len(response.css("div.item").getall()) yield { "page": page_num, "item_count": item_count, "request_url": response.url }
3. 进阶:自定义请求头(反爬核心)

大部分网站会拦截无合法请求头的爬虫,需在 GET 请求中添加模拟浏览器的User-AgentReferer等字段(也可在settings.py中全局配置)。

python

import scrapy class HeadersGetSpider(scrapy.Spider): name = "headers_get" def start_requests(self): # 模拟浏览器的请求头 custom_headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36", "Referer": "https://example.com", # 模拟来源页 "Accept-Language": "zh-CN,zh;q=0.9" # 语言偏好 } yield scrapy.Request( url="https://example.com", headers=custom_headers, # 自定义请求头 callback=self.parse ) def parse(self, response): yield {"title": response.xpath('//title/text()').get()}

二、常见注意事项

  1. URL 编码问题

    • 中文 / 特殊字符(如空格、&)直接拼接 URL 会导致请求失败,优先用urlencode()处理参数;
    • 示例:urlencode({"keyword": "Scrapy 教程"})会自动编码为keyword=Scrapy+%E6%95%99%E7%A8%8B
  2. 反爬基础配置

    • 全局设置 User-Agent(推荐):在settings.py中添加USER_AGENT = "你的浏览器UA"
    • 设置请求延迟:DOWNLOAD_DELAY = 2(每次请求间隔 2 秒,避免高频爬取);
    • 禁用 Cookie(可选):COOKIES_ENABLED = False(部分网站会通过 Cookie 识别爬虫)。
  3. 响应解析与异常处理

    • 提取数据优先用get()/getall()(Scrapy 2.0 + 推荐),替代旧的extract_first()/extract()
    • 处理请求失败:通过errback参数捕获异常(如 404、500 错误):

      python

      def start_requests(self): yield scrapy.Request( url="https://example.com/error", callback=self.parse, errback=self.handle_error # 错误回调 ) def handle_error(self, failure): """处理请求失败""" self.logger.error(f"请求失败:{failure.request.url},原因:{failure.value}")
  4. 去重机制

    • Scrapy 默认开启 URL 去重,重复的 URL 会被过滤;
    • 如需重复请求(如定时爬取),添加dont_filter=True参数。

三、全局配置优化(settings.py)

为了让 GET 请求更稳定,建议在settings.py中添加以下配置:

python

# 模拟浏览器UA USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36" # 请求延迟(秒) DOWNLOAD_DELAY = 2 # 并发请求数(默认16,新手建议调低) CONCURRENT_REQUESTS = 4 # 禁用robots.txt(部分网站禁止爬虫,可关闭) ROBOTSTXT_OBEY = False

总结

  1. Scrapy 发送 GET 请求有两种核心方式:start_urls自动发送(最简)、scrapy.Request()手动构造(灵活);
  2. 带参数的 GET 请求优先用urlencode()拼接参数,避免中文 / 特殊字符编码问题;
  3. 自定义请求头(User-Agent)、设置请求延迟是应对反爬的基础,也是 GET 请求稳定运行的关键;
  4. meta参数可在请求和回调函数间传递数据(如分页号、商品 ID),errback可处理请求失败场景。
http://www.jsqmd.com/news/145228/

相关文章:

  • Python返回数组/List长度的方法
  • 纯干货无广:基于真实体验的十大好用降AI工具红黑榜
  • 2025最新!研究生必备9个AI论文平台测评与推荐
  • 为了过知网检测,我自费测了十大降AI平台,最好用的都在这了
  • 如何开启第一次开源贡献之路?
  • 2025年儿童鞋服品牌前十名盘点:专业、舒适、潮流怎么选? - 品牌测评鉴赏家
  • 2026微信公众号服务号、订阅号、小程序、企业微信、微信开放平台、微信开发者平台区别
  • CSS定位的特殊应用
  • MySQL 创建数据库
  • IT监控:多场景探测+可视化诊断,实现网络故障快速排查
  • 国货之光!这10+国产儿童鞋服品牌闭眼入,宝妈收藏这篇就够了 - 品牌测评鉴赏家
  • DBeaver设置不断开连接
  • 国产三维设计软件 ZWPD vs 国外主流平台:协同效率与成本优势分析
  • 2025年国内儿童鞋服品牌前十名 综合排行榜(性价比 品质优选) - 品牌测评鉴赏家
  • Mozz TCAD丨晶体-器件坐标系的精准映射:MOZZ 各向异性模型的坐标配准方法
  • WebForms Controls:深入理解与高效应用
  • 学长血泪复盘:试错半个月,终于找到这十大靠谱降AI方法
  • AI Agent在心理健康领域的应用:情绪支持与干预
  • 2025年宝妈必看!中国十大童装品牌实力测评,从新生儿到学龄童全覆盖 - 品牌测评鉴赏家
  • 学长亲荐8个AI论文软件,专科生轻松搞定毕业论文!
  • PostgreSQL 时间/日期处理指南
  • 【社交APP上线记】小夏、老周、小林的讨论组
  • 年末财税稳控,让发票与收入成本“零隐患”
  • 为什么fastlio的frame_id是carmera_init
  • Doris资源组管理:精细化资源分配策略
  • 宝妈宝爸闭眼入!0 - 16岁儿童鞋服优质品牌大盘点 - 品牌测评鉴赏家
  • AI搜索重构流量格局,品牌如何制定下一代可见度战略?
  • 深入剖析CopyOnWriteArrayList:写时复制魔法让并发读取飞起来!
  • 别再交智商税了!盘点十大良心降AI工具,拒绝论文延毕
  • HTML 脚本:深入解析与实际应用