解析python中的json并处理api响应,需关注错误处理、数据验证和性能优化。首先,优雅处理json解析错误应检查content-type是否为application/json,再使用try...except捕获异常,确保提取有用信息;其次,处理大型json文件应使用ijson库进行增量解析,避免内存溢出;第三,处理分页数据需循环请求下一页,直到无更多数据为止;第四,验证api响应结构可借助jsonschema库,确保数据符合预期格式;第五,应对api速率限制应捕获429错误并重试,等待时间可配置;第六,提升api响应速度可通过requests-cache实现http缓存;最后,提高api处理效率可使用asyncio与aiohttp进行异步请求并发执行。

Python解析JSON,简单来说就是把JSON字符串变成Python能用的字典或列表。API响应处理,重点在于错误处理、数据校验和性能优化。

Python解析JSON数据和处理API响应,掌握这些技巧能事半功倍。

JSON解析错误,也就是json.JSONDecodeError,是家常便饭。最常见的做法是用try...except块包围json.loads()或json.load()。但更优雅的方式是,如果API本身就可能返回非JSON格式的错误信息,可以先检查响应头中的Content-Type是否为application/json。如果不是,直接当作字符串处理,说不定能从中提取有用的错误信息。
立即学习“Python免费学习笔记(深入)”;
import json
import requests
def safe_json_parse(response):
try:
if response.headers['Content-Type'] == 'application/json':
return response.json()
else:
return {'error': 'Not a JSON response', 'content': response.text}
except json.JSONDecodeError as e:
return {'error': 'JSONDecodeError', 'details': str(e)}
except KeyError: # 处理Content-Type不存在的情况
return {'error': 'Content-Type not found', 'content': response.text}
except Exception as e:
return {'error': 'Unexpected error', 'details': str(e)}
response = requests.get('https://api.example.com/data') # 假设这个API可能返回非JSON
data = safe_json_parse(response)
if 'error' in data:
print(f"Error: {data['error']}")
if 'details' in data:
print(f"Details: {data['details']}")
else:
# 正常处理数据
print(data)这个例子中,我们不仅捕获了JSONDecodeError,还考虑了Content-Type缺失的情况,并返回包含原始内容的错误信息,方便调试。

如果需要处理大型JSON文件,一次性加载到内存可能导致崩溃。这时,ijson库就派上用场了。ijson允许你增量地解析JSON数据,就像流一样,只在需要时才加载部分数据。
import ijson
import requests
def process_large_json(url):
response = requests.get(url, stream=True) # 启用流式传输
objects = ijson.items(response.raw, 'item') # 假设JSON是一个包含多个item的数组
for item in objects:
# 处理每个item,例如保存到数据库
print(item['id'], item['name']) # 假设每个item都有id和name字段
# ...
process_large_json('https://api.example.com/large_data.json')这里,stream=True告诉requests不要一次性下载所有数据。ijson.items()则逐个解析JSON数组中的item,避免内存溢出。
很多API使用分页来避免一次性返回大量数据。处理分页数据的关键在于循环请求下一页,直到没有下一页为止。通常,API会在响应中包含下一页的URL或者页码信息。
import requests
def fetch_all_data(base_url, page_param='page', page_size_param='page_size', page_size=100):
all_data = []
page = 1
while True:
url = f"{base_url}?{page_param}={page}&{page_size_param}={page_size}"
response = requests.get(url)
response.raise_for_status() # 检查HTTP错误
data = response.json()
if not data: # 假设空列表表示没有更多数据
break
all_data.extend(data)
page += 1
return all_data
all_data = fetch_all_data('https://api.example.com/items')
print(f"Total items fetched: {len(all_data)}")这个例子中,我们循环请求API,每次增加页码,直到API返回空列表。response.raise_for_status()用于检查HTTP错误,例如404或500,让程序更健壮。
Easily find JSON paths within JSON objects using our intuitive Json Path Finder
30
API返回的数据不一定总是符合预期。为了确保程序的健壮性,需要验证数据的结构和类型。可以使用jsonschema库来进行验证。
import jsonschema
import requests
schema = {
"type": "array",
"items": {
"type": "object",
"properties": {
"id": {"type": "integer"},
"name": {"type": "string"},
"price": {"type": "number"}
},
"required": ["id", "name", "price"]
}
}
def validate_data(data, schema):
try:
jsonschema.validate(instance=data, schema=schema)
return True
except jsonschema.exceptions.ValidationError as e:
print(f"Validation error: {e}")
return False
response = requests.get('https://api.example.com/products')
data = response.json()
if validate_data(data, schema):
print("Data is valid")
# 处理数据
else:
print("Data is invalid")首先定义一个JSON Schema,描述期望的数据结构和类型。然后使用jsonschema.validate()验证API返回的数据。如果数据不符合Schema,会抛出ValidationError异常,方便我们进行错误处理。
很多API都有速率限制,防止滥用。如果超过了速率限制,API会返回429 Too Many Requests错误。我们需要捕获这个错误,并等待一段时间后再重试。
import requests
import time
def handle_rate_limit(url, max_retries=5, wait_time=60):
for attempt in range(max_retries):
response = requests.get(url)
if response.status_code == 429:
print(f"Rate limit exceeded. Waiting {wait_time} seconds before retry (attempt {attempt + 1}/{max_retries})")
time.sleep(wait_time)
else:
response.raise_for_status() # 检查其他HTTP错误
return response.json()
raise Exception("Max retries exceeded")
data = handle_rate_limit('https://api.example.com/limited_resource')
print(data)这个例子中,我们循环请求API,如果遇到429错误,就等待一段时间后再重试。max_retries限制了重试的次数,防止无限循环。wait_time可以根据API的文档进行调整。
对于不经常变化的数据,可以使用缓存来减少API请求。可以使用requests-cache库来实现HTTP缓存。
import requests_cache
session = requests_cache.CachedSession('my_cache') # 创建一个缓存会话
response = session.get('https://api.example.com/cached_data')
data = response.json()
print(response.from_cache) # 检查数据是否来自缓存
print(data)requests_cache.CachedSession()会自动缓存API响应,下次请求相同的URL时,会直接从缓存中读取数据,而不会发送实际的HTTP请求。缓存的有效期可以通过设置expire_after参数来控制。
如果需要同时请求多个API,可以使用异步请求来提高效率。asyncio和aiohttp库可以实现异步HTTP请求。
import asyncio
import aiohttp
async def fetch_data(session, url):
async with session.get(url) as response:
return await response.json()
async def main():
async with aiohttp.ClientSession() as session:
urls = ['https://api.example.com/data1', 'https://api.example.com/data2', 'https://api.example.com/data3']
tasks = [fetch_data(session, url) for url in urls]
results = await asyncio.gather(*tasks)
for result in results:
print(result)
asyncio.run(main())aiohttp.ClientSession()用于创建异步HTTP会话。asyncio.gather()可以并发地执行多个fetch_data()任务,大大提高了API处理效率。需要注意的是,异步代码需要在async函数中运行,并使用await关键字等待异步操作完成。
掌握这些技巧,就能更高效、更健壮地处理Python中的JSON数据和API响应。
以上就是Python中如何解析JSON数据 处理API响应时有哪些技巧的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号