答案:Python爬虫可用csv模块或pandas将数据保存为CSV文件。1. 使用csv模块可写入表头和数据,适合结构化信息存储;2. pandas能自动处理编码与中文,导出更便捷;3. 需用try-except处理异常,with确保文件安全关闭。

Python爬虫抓取数据后,使用CSV格式存储是一种简单高效的方式。CSV文件可以用Excel打开,也便于导入数据库或进行数据分析。下面介绍如何在爬虫中将结果保存为CSV文件。
1. 使用内置csv模块写入数据
Python自带的csv模块非常适合处理结构化数据。适合存储表格类信息,比如商品名称、价格、链接等。
基本步骤:
- 导入csv和open函数打开文件
- 创建csv.writer对象
- 写入表头(可选)
- 逐行写入爬取的数据
示例代码:
立即学习“Python免费学习笔记(深入)”;
import csv import requests from bs4 import BeautifulSoup模拟请求网页
url = "https://www.php.cn/link/ebae6bc5deeca109d899c4ec7d9d30c0" response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser')
提取数据(示例)
products = [] for item in soup.findall('div', class='product'): name = item.find('h2').text.strip() price = item.find('span', class_='price').text.strip() link = item.find('a')['href'] products.append([name, price, link])
写入CSV文件
with open('products.csv', 'w', newline='', encoding='utf-8') as f: writer = csv.writer(f)
写入标题
writer.writerow(['Name', 'Price', 'Link']) # 写入每条数据 writer.writerows(products)
2. 使用pandas更方便地导出CSV
如果你已经用pandas做数据处理,可以直接把列表或字典转成DataFrame再保存。
优点:自动处理编码、支持中文、列对齐整齐。
import pandas as pd假设数据是字典列表
data = [ {'Name': '手机', 'Price': '¥2999', 'Link': 'https://www.php.cn/link/3688bc5db453523746c83fbedd11a267'}, {'Name': '耳机', 'Price': '¥199', 'Link': 'https://www.php.cn/link/3cd9fd588c126cc9043850408c2c19ab'} ]
转为DataFrame并保存
df = pd.DataFrame(data) df.to_csv('products_pandas.csv', index=False, encoding='utf-8-sig')
注意:保存中文时建议用utf-8-sig编码,避免Excel乱码。
3. 处理异常与确保文件安全关闭
网络爬虫可能遇到请求失败、数据缺失等问题,需做好容错。
- 使用try-except捕获异常
- 始终用with语句操作文件,确保自动关闭
- 检查字段是否存在再写入,防止报错
例如:
try:
with open('data.csv', 'w', newline='', encoding='utf-8') as f:
writer = csv.writer(f)
writer.writerow(['Title', 'URL'])
for item in items:
title = item.get('title', '未知')
url = item.get('url', '')
writer.writerow([title, url])
except Exception as e:
print(f"保存文件出错: {e}")
基本上就这些。用csv模块适合轻量级项目,pandas更适合后续分析。根据需求选择方法就行。










