
databricks文件系统(dbfs)是databricks工作区中的一个分布式文件系统,用于存储数据、库和模型。当需要通过api将文件上传到dbfs时,/api/2.0/dbfs/put接口是一个常用的选择。然而,在使用此api时,开发者常会遇到关于content参数的困惑。
根据Databricks API文档,如果通过content参数直接传递文件内容,该内容必须是Base64编码的字符串。这意味着,无论是JSON、文本文件还是二进制数据,在将其作为content字段的值发送到API之前,都必须先进行Base64编码。如果缺少content参数,API则会尝试从请求体中读取作为文件上传的内容,但这种方式的解释和使用不如直接指定content参数明确。
重要限制: 使用/api/2.0/dbfs/put API并直接在content参数中传递数据时,存在一个显著的文件大小限制,通常为1MB。对于任何大于此限制的文件,直接通过content参数上传将不可行,即便进行了Base64编码,也可能导致错误或上传失败。
因此,虽然了解Base64编码是正确使用dbfs/put API的关键,但对于实际生产环境或处理较大文件场景,此方法并非最佳实践。
鉴于直接API调用的局限性,Databricks官方强烈推荐使用其提供的Python SDK进行DBFS文件操作。Databricks Python SDK封装了底层的REST API调用,提供了更高级、更易用的接口,并解决了认证、大文件上传、错误处理等诸多复杂问题。
立即学习“Python免费学习笔记(深入)”;
使用Databricks Python SDK的优势包括:
以下是一个使用Databricks Python SDK上传和下载文件的示例:
import io
import pathlib
import time
# 导入Databricks WorkspaceClient
from databricks.sdk import WorkspaceClient
# 初始化WorkspaceClient。
# SDK会自动从环境变量(如DATABRICKS_HOST, DATABRICKS_TOKEN)或配置文件中获取认证信息。
w = WorkspaceClient()
# 定义一个临时DBFS路径,使用时间戳确保唯一性
root = pathlib.Path(f'/tmp/{time.time_ns()}')
# 准备要上传的二进制数据。
# 对于JSON数据,您可以先将其转换为字符串,再编码为bytes,例如:
# json_data = '{"key": "value", "number": 123}'
# f = io.BytesIO(json_data.encode('utf-8'))
f = io.BytesIO(b"some text data to upload")
# 使用w.dbfs.upload方法上传文件
# 第一个参数是DBFS目标路径,第二个参数是文件内容的BytesIO对象
print(f"Uploading file to DBFS: {root}/01")
w.dbfs.upload(f'{root}/01', f)
print("Upload successful.")
# 使用w.dbfs.download方法下载文件
# download方法返回一个文件对象上下文管理器
print(f"Downloading file from DBFS: {root}/01")
with w.dbfs.download(f'{root}/01') as downloaded_file:
# 读取下载的文件内容
content = downloaded_file.read()
print(f"Downloaded content: {content}")
# 验证内容是否一致
assert content == b"some text data to upload"
print("Content verification successful.")
# 清理:删除上传的目录(可选)
# w.dbfs.delete(f'{root}', recursive=True)
# print(f"Cleaned up DBFS path: {root}")代码解析:
尽管Databricks DBFS的/api/2.0/dbfs/put API提供了直接的文件上传能力,但其对content参数的Base64编码要求以及严格的1MB文件大小限制,使其在多数实际应用场景中显得不够灵活和高效。强烈建议开发者采用Databricks Python SDK进行DBFS文件操作。SDK不仅简化了认证流程,能够透明地处理大文件上传,还提供了更稳定、更易于使用的API接口,是进行Databricks DBFS文件管理的最佳实践。
以上就是深入理解Databricks DBFS文件上传机制与Python SDK应用的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号