需通过结构化提示词、人工校验、反爬模块注入、Requests-HTML 替代及日志与增量支持五步优化 ChatGPT 生成的 Python 爬虫脚本,提升其健壮性、可运行性与生产适用性。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望借助 ChatGPT 辅助生成结构清晰、健壮可运行的 Python 爬虫脚本,但实际产出常存在缺少异常处理、忽略反爬机制或无法解析动态内容等问题,则需通过特定提示策略与人工校验协同优化。以下是实现该目标的多种方法:
一、使用结构化提示词引导 ChatGPT 输出规范代码
ChatGPT 对模糊指令响应质量较低,明确限定编程范式、依赖库、输入输出格式及约束条件,能显著提升生成脚本的可用性。需强制其遵循 PEP 8 规范,并预设常见反爬应对模块。
1、在提问中明确指定目标网站类型,例如“请生成一个使用 requests 和 BeautifulSoup 抓取静态新闻列表页标题与链接的脚本,要求包含 User-Agent 随机轮换和基础 HTTP 状态码检查”。
2、追加约束条件,例如“不使用 Selenium,不调用 time.sleep(),所有请求必须设置 timeout=10,异常需捕获 requests.exceptions.RequestException 并打印错误信息”。
立即学习“Python免费学习笔记(深入)”;
3、要求返回完整可执行代码块,开头含必需导入语句,结尾含 if __name__ == "__main__": 调用入口,且函数命名采用 snake_case。
二、对 ChatGPT 输出代码进行关键项人工校验
自动生成脚本常隐含逻辑漏洞或环境假设,需逐项验证是否满足生产级爬虫基本要求,避免运行时报错或被服务端拦截。
1、检查 requests.get() 调用是否全部包含 headers 参数,确认其中"User-Agent" 值为非默认字符串且已封装为字典变量。
2、定位所有 select() 或 find_all() 调用,核实其 CSS 选择器或标签名参数是否基于目标页面当前 HTML 结构编写,而非示例页面或过时快照。
3、审查所有文本提取操作,确保对 None 类型结果做了防御性处理,例如使用element.get_text(strip=True) if element else ""而非直接调用 .text。
三、注入可复用的反爬适配模块
将高频反爬应对逻辑封装为独立函数,插入 ChatGPT 生成的主流程中,可快速提升脚本鲁棒性,无需每次重新生成整段逻辑。
1、定义 get_proxies() 函数,从本地 proxies.txt 文件读取代理地址,每行格式为 http://user:pass@host:port,返回随机选取的一项,若文件不存在则返回 None。
2、编写 check_robots_txt(url) 函数,自动请求目标域名根路径下的 robots.txt,解析 Disallow 规则,若当前爬取路径被禁止则抛出 ValueError 并提示 "Robots.txt disallows crawling this path"。
3、添加 validate_response(response) 函数,在每次 requests.get() 后立即调用,检查 response.status_code 是否为 200,Content-Type 是否含 text/html,任一不满足即raise RuntimeError(f"Invalid response: {response.status_code}, {response.headers.get('Content-Type')})"。
四、用 Requests-HTML 替代纯 BeautifulSoup 处理混合渲染页面
当目标页面部分数据由 JavaScript 动态注入,而 ChatGPT 默认仅生成静态解析方案时,需主动替换解析引擎以覆盖真实场景。
1、卸载原有 bs4 相关导入,改为导入from requests_html import HTMLSession,并初始化 session = HTMLSession()。
2、将原 requests.get() 替换为 session.get(),随后调用 response.html.render(timeout=20, scrolldown=2),确保页面滚动加载完成且 JS 执行完毕。
3、使用 response.html.find() 替代 BeautifulSoup 的 select(),注意其返回对象为 list[Element],每个 Element 支持 .text 和 .attrs 属性,但不支持 .find_next_sibling() 等复杂导航方法,需改用 CSS 伪类或显式索引访问。
五、添加结构化日志与增量爬取支持
原始生成脚本通常缺乏运行过程追踪能力,加入 logging 模块与时间戳/唯一标识校验,可支撑后续断点续爬与问题定位。
1、在脚本顶部配置 basicConfig,设置 level=logging.INFO,format="%(asctime)s - %(levelname)s - %(message)s",确保时间精确到毫秒。
2、每次成功提取一条有效记录后,记录日志:logging.info(f"Extracted item: {title[:50]}... | URL: {url}")。
3、在数据保存前检查本地 CSV 文件是否存在,若存在则读取已有 URL 列,对新抓取条目做url in existing_urls 集合判断,跳过已存在项,避免重复写入。










