如何用Python爬取网页数据?requests+BeautifulSoup方案

爱谁谁
发布: 2025-07-11 14:17:01
原创
542人浏览过

使用 python 抓取网页数据时,requests 和 beautifulsoup 是最常用的组合。requests 用于发送 http 请求并获取网页内容,而 beautifulsoup 则用于解析 html 并提取所需数据。1. 安装依赖库:使用 pip install requests beautifulsoup4 或加国内源安装;2. 获取网页内容:通过 requests.get() 方法发送请求,并加入异常处理和 headers 模拟浏览器访问;3. 解析 html:用 beautifulsoup 初始化解析器,利用 find、find_all 和 select 等方法提取数据;4. 注意编码问题、结构不稳定及请求频率控制等小技巧避免踩坑。这套方案适用于静态页面,且简单高效。

如何用Python爬取网页数据?requests+BeautifulSoup方案

想用 Python 父取网页数据,requests 和 BeautifulSoup 是最常见、也最容易上手的组合。简单来说,requests 用来下载网页内容,BeautifulSoup 用来解析 HTML 并提取你需要的数据。这套方案适合静态页面,不涉及 JavaScript 渲染。

如何用Python爬取网页数据?requests+BeautifulSoup方案

准备工作:安装依赖库

使用前需要先安装两个库,命令如下:

pip install requests beautifulsoup4
登录后复制

这两个库都很轻量,安装过程一般不会出问题。如果网络不好,可以加国内源,比如清华镜像:

立即学习Python免费学习笔记(深入)”;

如何用Python爬取网页数据?requests+BeautifulSoup方案
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests beautifulsoup4
登录后复制

第一步:获取网页内容(requests)

爬虫的第一步是发送 HTTP 请求,拿到网页的 HTML 内容。requests 的 get 方法就能搞定:

import requests

url = 'https://example.com'
response = requests.get(url)

# 检查是否成功获取
if response.status_code == 200:
    html_content = response.text
else:
    print("请求失败")
登录后复制

这里需要注意几个点:

如何用Python爬取网页数据?requests+BeautifulSoup方案
  • 加入异常处理,比如超时或连接错误:

    try:
        response = requests.get(url, timeout=10)
    except requests.exceptions.RequestException as e:
        print(e)
    登录后复制
  • 有些网站会检测 User-Agent,防止你被拒绝访问,可以加上 headers:

    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'
    }
    response = requests.get(url, headers=headers)
    登录后复制

第二步:解析HTML并提取数据(BeautifulSoup)

有了 HTML 内容后,下一步就是从中提取有用的信息。BeautifulSoup 提供了非常方便的方法来查找标签和内容。

from bs4 import BeautifulSoup

soup = BeautifulSoup(html_content, 'html.parser')

# 示例:提取所有链接
for link in soup.find_all('a'):
    print(link.get('href'))

# 示例:提取特定标题
title = soup.find('h1').text
print(title)
登录后复制

常用的查找方法包括:

  • find(tag, attrs):找第一个匹配的标签
  • find_all(tag, attrs):找所有匹配的标签
  • 支持 CSS 选择器:soup.select('div.content > p')

举个实际例子,比如你想提取某个新闻网站的文章标题和正文,可以这样写:

title = soup.find('h1', class_='article-title').text.strip()
content = soup.find('div', id='article-content').text.strip()
登录后复制

注意类名要用 class_,因为 class 是 Python 关键字。


小技巧:避免踩坑

这个组合虽然简单,但还是有几个容易忽略的地方:

  • 编码问题:有时返回的内容乱码,记得检查响应头的编码方式:

    response.encoding = response.apparent_encoding
    登录后复制
  • 结构不稳定:网页结构可能经常变,建议写代码时多加判断,比如:

    title_tag = soup.find('h1')
    title = title_tag.text if title_tag else '未知标题'
    登录后复制
  • 不要太快请求:频繁访问可能会被封 IP,适当加点延迟:

    import time
    time.sleep(1)  # 每次请求间隔1秒
    登录后复制

基本上就这些。整个流程下来,你会发现 requests 负责“拿”,BeautifulSoup 负责“挑”,配合起来很顺手。对于大多数静态网页来说,这套组合已经够用了,也不需要太复杂的配置。

以上就是如何用Python爬取网页数据?requests+BeautifulSoup方案的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号