当前位置: 首页 > news >正文

102302126李坤铭作业1

作业1
用requests和BeautifulSoup库方法定向爬取给定网址(http://www.shanghairanking.cn/rankings/bcur/2020 )的数据,屏幕打印爬取的大学排名信息。
1)代码:

点击查看代码
import requests
from bs4 import BeautifulSoup# 目标 URL(上海软科 2020 年中国大学排名)
url = "http://www.shanghairanking.cn/rankings/bcur/2020"# 1. 发送 HTTP 请求
try:response = requests.get(url)response.encoding = "utf-8"  # 确保编码正确response.raise_for_status()  # 如果请求失败,抛出异常
except requests.exceptions.RequestException as e:print(f"请求失败: {e}")exit()# 2. 解析 HTML 内容
soup = BeautifulSoup(response.text, "html.parser")# 3. 定位排名数据所在的表格
tables = soup.find_all("table")
for table in tables:if "排名" in table.text:  # 判断表格是否包含“排名”break
if not table:print("未找到排名表格!")exit()# 4. 提取表格中的每一行数据(跳过表头)
rows = table.find_all("tr")[1:]  # 跳过表头行# 5. 存储并打印排名信息
rankings = []
for row in rows:cols = row.find_all("td")if len(cols) < 5:  # 确保每行有足够的数据continuerank = cols[0].text.strip()  # 排名name = cols[1].text.strip()  # 学校名称province = cols[2].text.strip()  # 省市type_ = cols[3].text.strip()  # 学校类型score = cols[4].text.strip()  # 总分rankings.append((rank, name, province, type_, score))# 6. 打印结果
print("上海软科 2020 年中国大学排名:")
print("+" + "-"*50 + "+")
print("| {:<4} | {:<10} | {:<6} | {:<8} | {:<6} |".format("排名", "学校名称", "省市", "学校类型", "总分"))
print("+" + "-"*50 + "+")
for rank in rankings:print("| {:<4} | {:<10} | {:<6} | {:<8} | {:<6} |".format(*rank))
print("+" + "-"*50 + "+")
运行结果:

b321e4a4-6490-4777-ad22-3f1d044fd75c
2)作业心得
这段代码是一个简单的网页数据抓取示例,其逻辑非常直观:首先通过请求获取网页内容,然后利用解析工具对页面进行解析,最后从中提取所需的数据信息。具体来说,使用requests库来获取网页内容,借助BeautifulSoup库精准定位数据所在位置,同时还需要对中文乱码以及数据中多余的空格、换行进行清理,让展示的数据会显得整齐统一。
作业2
用requests和re库方法设计某个商城(自已选择)商品比价定向爬虫,爬取该商城,以关键词“书包”搜索页面的数据,爬取商品名称和价格。
1)代码:

点击查看代码
import urllib.request
import redef fetch_dangdang_backpack_products():search_url = "https://search.dangdang.com/?key=%CA%E9%B0%FC&category_id=10009684#J_tab"try:with urllib.request.urlopen(search_url, timeout=3) as response:page_content = response.read().decode('gb2312')# 使用更精确的正则匹配商品列表项product_items = re.findall(r'<li[^>]*?class="line[^>]*>(.*?)</li>', page_content, re.S)# 定义更健壮的正则模式title_regex = re.compile(r'<a[^>]*title=["\']\s*([^"\']*?)\s*["\']', re.I)price_regex = re.compile(r'<span[^>]*class=["\']price_n["\'][^>]*>(.*?)</span>', re.S)valid_products = 0print("当当网书包商品信息:")print(f"{'编号':<4}{'售价':<10}{'商品名称'}")print("=" * 80)for position, item in enumerate(product_items, 1):titles = title_regex.findall(item)prices = price_regex.findall(item)if titles and prices:item_name = titles[0].strip()item_price = prices[0].strip().replace('&yen;', '¥')print(f"{position:<4}{item_price:<10}{item_name}")valid_products += 1print("=" * 80)print(f"成功获取 {valid_products} 个有效商品信息")except urllib.error.URLError as error:if hasattr(error, 'code'):print(f"HTTP请求失败,状态码:{error.code}(可能触发反爬机制,建议优化请求头)")else:print(f"网络请求异常:{error.reason}")if __name__ == "__main__":print("启动当当网书包商品爬取程序...\n")fetch_dangdang_backpack_products()print("\n爬取程序执行完毕!")
运行结果:

2e01555f-8e41-4e2d-8281-2cc03917d4c6
2)作业心得
通过本次代码调试实践,我深入认识到Cookie在应对网站反爬机制中的关键作用:当当网通过Cookie来追踪和验证用户身份,当HTTP请求缺少有效的Cookie时,服务器会直接返回显示"无商品数据"的空白页面(即便请求头中已正确设置User-Agent)。因此,在实际爬取操作前,必须从浏览器开发者工具中复制真实的Cookie信息并添加到请求头中,这是绕过基础反爬策略的必要前提条件。
作业3
爬取一个给定网页(https://news.fzu.edu.cn/yxfd.htm)或者自选网页的所有JPEG、JPG或PNG格式图片文件
1)代码:

点击查看代码
import requests
from bs4 import BeautifulSoup
import os
import time
from urllib.parse import urljoin# 待抓取的新闻页面列表
news_pages = ["https://news.fzu.edu.cn/yxfd.htm","https://news.fzu.edu.cn/yxfd/1.htm","https://news.fzu.edu.cn/yxfd/2.htm","https://news.fzu.edu.cn/yxfd/3.htm","https://news.fzu.edu.cn/yxfd/4.htm","https://news.fzu.edu.cn/yxfd/5.htm"
]# 图片存储配置
IMAGE_FOLDER = "fzu_news_images"
downloaded_images = 0# 自动创建图片目录
os.makedirs(IMAGE_FOLDER, exist_ok=True)
print(f"图片存储目录已创建:{IMAGE_FOLDER}")def save_image(image_url, page_index):"""下载并保存单张新闻图片"""global downloaded_images# 配置请求头模拟浏览器访问request_headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) Chrome/128.0.0.0 Safari/537.36"}try:# 发起图片下载请求img_response = requests.get(image_url, headers=request_headers, timeout=15)img_response.raise_for_status()# 生成规范化文件名filename = image_url.split("/")[-1]if "." not in filename:filename = f"unnamed_{downloaded_images + 1}.jpg"save_path = os.path.join(IMAGE_FOLDER, f"page_{page_index}_{filename}")# 写入图片文件with open(save_path, "wb") as img_file:img_file.write(img_response.content)downloaded_images += 1print(f"[成功] 页面{page_index} - 图片{downloaded_images}: {filename}")return Trueexcept Exception as error:print(f"[失败] 页面{page_index} 图片下载失败: {image_url}\n原因: {error}")return Falsedef parse_news_page(page_url, page_index):"""解析新闻页面并提取图片"""print(f"\n开始处理页面 {page_index}: {page_url}")# 配置请求头request_headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) Chrome/128.0.0.0 Safari/537.36"}try:# 获取页面内容page_response = requests.get(page_url, headers=request_headers, timeout=15)page_response.encoding = page_response.apparent_encoding# 解析HTML文档html_parser = BeautifulSoup(page_response.text, "html.parser")image_containers = html_parser.find_all("div", class_="img slow")if not image_containers:print(f"[提示] 页面{page_index} 未发现图片元素")return# 处理每个图片容器for container in image_containers:img_element = container.find("img")if img_element and img_element.get("src"):# 处理相对路径full_image_url = urljoin(page_url, img_element["src"])save_image(full_image_url, page_index)time.sleep(1)  # 请求间隔print(f"[完成] 页面{page_index} 处理完毕")except Exception as error:print(f"[错误] 页面{page_index} 解析失败: {error}")if __name__ == "__main__":print("福州大学新闻图片抓取程序启动")print(f"目标页面列表: {news_pages}")# 遍历所有新闻页面for idx, page_url in enumerate(news_pages, start=1):parse_news_page(page_url, idx)# 页面间延迟(除最后一页)if idx < len(news_pages):print("等待2秒后处理下一页...")time.sleep(2)# 输出统计信息print("\n抓取任务完成!")print(f"处理页面数: {len(news_pages)}")print(f"成功下载图片数: {downloaded_images}")print(f"图片存储路径: {os.path.abspath(IMAGE_FOLDER)}")
运行结果:

image
2)作业心得
在网页数据采集阶段,我采用urllib.request库构建带自定义请求头的HTTP请求,通过模拟浏览器行为(User-Agent伪装)有效规避了基础反爬机制,成功获取到完整的网页HTML源码。

http://www.jsqmd.com/news/25007/

相关文章:

  • 10月28日日记
  • 【大模型应用开发】之本地部署大模型
  • link元素的用法及HTML样板
  • Raft 一致性算法简介
  • 10月28号
  • URL验证绕过速查表:全面解析SSRF与CORS绕过技术
  • https://avoid.overfit.cn/post/44c8d547475340d59aa4480f634ea67f
  • 记录一次成功的springboot2
  • 算法学习-素数筛法【埃氏筛法、线性筛法】
  • Day 18
  • Jenkins Share Library教程 —— 企业级 Jenkins Shared Library 实战示例
  • STM32之fromelf生成bin和反汇编文件
  • 25.10.28联考题解
  • 2025年河南工业大学2025新生周赛(1)
  • excel查找满足条件的第二项
  • 【传奇开心果系列】基于Flet框架实现的跷跷板动画自定义模板特色和实现原理深度解析 - 指南
  • CF506E Mr. Kitayutas Gift
  • 常用存储器介绍
  • 记录一次成功的springBoot
  • 2025.10.28总结
  • 代码大全2阅读笔记(1)
  • 进程与进程间通信(IPC)
  • QT:键盘事件(添加资源图片)
  • 2025.10.28
  • docker desktop:更新WSL2+安装nginx
  • # 学代码--看懂了但是不会写
  • 2025-10-28 aoao Round 比赛总结
  • P11307 [COTS 2016] 建造费 Pristojba 分析
  • 程序员如何打破职业瓶颈?先搬开这3块绊脚石。
  • 乱学点东西#2 :菠萝/蓝莓/Boruvka算法