
本教程旨在解决使用python抓取html数据并追加到pandas dataframe时,因数据列不匹配导致的“cannot set a row with mismatched columns”错误。文章提供了两种核心策略:一是通过条件判断跳过不完整的数据行;二是用`np.nan`填充缺失列,以确保数据完整性。同时,强调了通过先收集数据再一次性构建dataframe的性能优化方法,提升数据处理效率和代码健壮性。
在进行网页数据抓取(Web Scraping)时,我们经常会遇到HTML表格数据结构不一致的情况。特别是当表格中的某些行缺少部分列数据时,直接将其追加到预定义列数的Pandas DataFrame中会导致“cannot set a row with mismatched columns”错误。这种错误通常发生在尝试将一个长度不匹配的列表赋值给DataFrame的某一行时。
例如,考虑以下数据片段,其中“Albania”一行缺少2022和2023年的数据:
Country (or dependent territory) 2020 2021 2022 2023 Afghanistan 20,136 14,941 19,083 23,032 Albania 15,192 17,984 Algeria 145,656 163,138 195,060 224,107
如果我们的目标DataFrame预设了“2020”、“2021”、“2022”、“2023”这四列,当处理到“Albania”这一行时,由于其只提供了两个数据点,直接使用df.loc[length] = row_data的方式就会引发列不匹配的错误。
为了有效地处理这类问题,我们提供两种主要的策略,并结合性能优化建议。
立即学习“前端免费学习笔记(深入)”;
这种方法的核心思想是,在将数据追加到DataFrame之前,先检查当前行的数据长度是否与DataFrame预期的列数完全匹配。如果不匹配,则直接跳过该行数据。这确保了DataFrame中的每一行都具有完整且一致的数据结构。
实现步骤:
示例代码:
import pandas as pd
import numpy as np # 虽然此策略未使用,但通常与Pandas一起导入
# 假设 GDP_2020 是已经抓取到的HTML行数据列表,每项是一个BeautifulSoup的Tag对象
# 模拟 GDP_2020 的结构,实际应通过 BeautifulSoup 等库解析HTML
class MockRow:
def __init__(self, data_list):
self._data = data_list
def find_all(self, tag):
return [MockTag(d) for d in self._data]
class MockTag:
def __init__(self, text):
self.text = text
def strip(self):
return self.text.strip()
GDP_2020_mock_data = [
MockRow(['Country', '2020', '2021', '2022', '2023']), # 标题行,通常跳过
MockRow(['Afghanistan', '20,136', '14,941', '19,083', '23,032']),
MockRow(['Albania', '15,192', '17,984']), # 不完整数据
MockRow(['Algeria', '145,656', '163,138', '195,060', '224,107'])
]
# 实际应用中 GDP_2020 会是 BeautifulSoup 解析后的结果,例如 soup.find_all('tr')
years = ['2020','2021','2022','2023']
expected_columns_count = len(years)
all_rows_data = [] # 用于存储所有符合条件的数据行
for row in GDP_2020_mock_data[1:]: # 跳过标题行
row_cells = row.find_all('td') # 查找行中的所有<td>标签
individual_row_data = [data.text.strip() for data in row_cells]
# 检查数据长度是否与预期列数匹配
if len(individual_row_data) == expected_columns_count:
all_rows_data.append(individual_row_data)
# 一次性创建DataFrame,效率更高
GDP = pd.DataFrame(all_rows_data, columns=years)
print("策略一:跳过不完整数据")
print(GDP)优点: 确保了DataFrame中数据的完整性和一致性,避免了NaN值的引入,简化了后续数据清洗工作。 缺点: 会丢失所有不完整的数据行,可能导致信息损失。
这种方法旨在保留所有抓取到的数据,即使它们不完整。对于那些缺少列的行,我们会用np.nan(Not a Number)来填充缺失的位置,使其长度与DataFrame的预期列数一致。
实现步骤:
示例代码:
import pandas as pd
import numpy as np
# 沿用上面的 GDP_2020_mock_data
years = ['2020','2021','2022','2023']
expected_columns_count = len(years)
all_rows_data = [] # 用于存储所有处理后的数据行
for row in GDP_2020_mock_data[1:]: # 跳过标题行
row_cells = row.find_all('td')
individual_row_data = [data.text.strip() for data in row_cells]
# 计算需要填充的NaN数量
missing_columns_count = expected_columns_count - len(individual_row_data)
if missing_columns_count > 0:
# 用 np.nan 填充缺失的列
individual_row_data.extend([np.nan] * missing_columns_count)
all_rows_data.append(individual_row_data)
# 一次性创建DataFrame
GDP = pd.DataFrame(all_rows_data, columns=years)
print("\n策略二:用缺失值填充不完整数据")
print(GDP)优点: 保留了所有可用的数据,避免了信息丢失。np.nan是Pandas处理缺失值的标准方式,便于后续的数据清洗和分析。 缺点: 引入了np.nan值,后续可能需要进行缺失值处理(如填充、删除等)。此方法默认缺失的列位于行尾,如果缺失发生在中间,则需要更复杂的逻辑来匹配数据到正确的列。
无论是采用哪种策略,都强烈建议避免在循环中反复使用DataFrame.append()或DataFrame.loc来逐行添加数据。Pandas DataFrame的每次追加操作都会创建一个新的DataFrame,这在处理大量数据时会造成显著的性能开销。
推荐的做法是:
上述两种策略的示例代码都已采纳了这种优化方法,通过all_rows_data.append(individual_row_data)收集数据,最后通过pd.DataFrame(all_rows_data, columns=years)一次性构建DataFrame。这种方法能够显著提升数据处理的效率,尤其是在处理大型数据集时。
在从HTML表格抓取数据并构建Pandas DataFrame时,处理因数据不一致导致的列不匹配错误是常见的挑战。通过采纳“跳过不完整数据”或“用缺失值填充”这两种策略,并结合“先收集数据再一次性构建DataFrame”的性能优化实践,我们可以有效地解决这些问题,确保数据处理流程的顺畅和高效。选择哪种策略取决于具体的数据分析需求:如果完整性是首要考量,则选择跳过;如果最大化数据保留是目标,则选择填充缺失值。
以上就是解决Pandas数据追加中的列不匹配错误:HTML抓取数据处理教程的详细内容,更多请关注php中文网其它相关文章!
HTML怎么学习?HTML怎么入门?HTML在哪学?HTML怎么学才快?不用担心,这里为大家提供了HTML速学教程(入门课程),有需要的小伙伴保存下载就能学习啦!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号