
本文介绍使用 python(requests + beautifulsoup)批量抓取 biblestudytools 网站中《史密斯圣经词典》对希伯来人名的定义,重点解决动态匹配目标文本、规避单次 `find()` 仅返回首个 `` 标签的局限,并确保字典结构化存储。
在爬取《史密斯圣经词典》(Smith’s Bible Dictionary)中人名释义时,原始代码存在两个关键问题:一是 soup.find('i') 仅返回第一个 标签,而实际定义往往散落在多个 元素中(如解释性短语、引文、拉丁术语等);二是硬编码匹配特定字符串(如 'a teacher, or lofty')无法泛化到不同人名——每个名字对应的释义内容各不相同,无法预设。
正确做法是:先定位所有 标签,再逐个检查其文本是否包含与当前人名语义相关的上下文线索。但需注意:直接用 name in i.text(如 'aaron' in i.text)并不可靠——因为 内容通常是释义本身(如 "a teacher, or lofty"),而非重复人名。更稳健的策略是:定位定义段落的结构特征。
观察目标页面(如 aaron.html)可知,释义通常位于
或首个 往往承载核心定义。因此推荐以下增强版方案:
import requests
from bs4 import BeautifulSoup
smiths_names = {}
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"}
for name in test:
url = f"https://www.biblestudytools.com/dictionaries/smiths-bible-dictionary/{name.lower()}.html"
try:
page = requests.get(url, headers=headers, timeout=10)
page.raise_for_status()
soup = BeautifulSoup(page.content, 'html.parser')
# 优先查找 entry-content 区域内的首个 或 文本
content_div = soup.find('div', class_='entry-content')
if not content_div:
print(f"[⚠] {name}: 'entry-content' div not found")
continue
# 尝试获取首个 标签的纯文本(最常见定义位置)
first_i = content_div.find('i')
if first_i and first_i.get_text(strip=True):
meaning = first_i.get_text(strip=True)
else:
# 回退:取首个
的文本(去除可能的脚注链接)
first_p = content_div.find('p')
if first_p:
# 移除内部 标签避免干扰(如引用经文链接)
for a in first_p.find_all('a'):
a.decompose()
meaning = first_p.get_text(strip=True)
else:
print(f"[!] {name}: no or found in entry-content")
continue
# 清理:移除开头可能的冗余前缀(如 "Aaron.—")
meaning = meaning.split("—", 1)[-1].strip() if "—" in meaning else meaning
smiths_names[name] = meaning
print(f"[✓] {name}: {meaning[:60]}...")
except requests.exceptions.RequestException as e:
print(f"[✗] Request failed for {name}: {e}")
except Exception as e:
print(f"[✗] Parsing error for {name}: {e}")
print(f"\n✅ Total scraped: {len(smiths_names)}/{len(test)}")
关键优化点说明:
- ✅ 结构化定位:通过 class_='entry-content' 锁定主内容区,避免误抓页眉/导航栏中的 ;
- ✅ 回退机制:当 为空时,自动降级提取
并清理内嵌链接,提升鲁棒性;
- ✅ 文本清洗:使用 strip() 去除首尾空白,用 split("—", 1) 剔除标题式前缀(如 Aaron.—A teacher... → A teacher...);
- ✅ 请求头与超时:添加 User-Agent 防止被拦截,设置 timeout 避免卡死;
- ✅ 异常分级处理:区分网络错误与解析错误,便于调试。
注意事项:
- 该网站对高频请求较敏感,建议在循环中加入 time.sleep(1)(每请求间隔1秒);
- 若 test 列表含大小写混合名称(如 "Aaron" vs "aaron"),URL 中统一转为小写(.lower())更稳妥;
- 部分名字可能重定向或不存在(返回 404),page.raise_for_status() 可捕获此类状态码;
- 最终结果 smiths_names 是标准 Python 字典,可直接 json.dump() 保存或转为 Pandas DataFrame 分析。
此方案兼顾准确性、可维护性与抗变化能力,适用于批量爬取同类结构化词典网页。










