实现数据湖互操作性的跨表格式转换工具
Apache XTable™ (Incubating)是一款开源的跨表格式转换工具,支持Apache Hudi、Apache Iceberg和Delta Lake等主流表格式。它采用通用表示模型,简化数据湖操作,允许用户以单一格式写入数据,同时利用其他格式的集成功能。XTable™支持自定义转换器和目录配置,为数据处理系统和查询引擎提供全面互操作性,提高数据湖管理效率。
Apache XTable™(孵化中)是一个跨表格式转换器,可促进数据处理系统和查询引擎之间的全方位互操作性。目前,Apache XTable™ 支持广泛采用的开源表格式,如 Apache Hudi、Apache Iceberg 和 Delta Lake。
Apache XTable™ 通过利用通用的表示模型简化了数据湖操作。这使用户能够以一种格式写入数据,同时仍然受益于其他格式中可用的集成和功能。例如,Apache XTable™ 使现有的 Hudi 用户能够无缝地使用 Databricks 的 Photon 引擎或使用 Snowflake 查询 Iceberg 表。从一种格式转换到另一种格式很简单,只需实现几个接口,我们相信这将促进未来支持的源格式和目标格式的扩展。
mvn clean package
构建项目。使用 mvn clean package -DskipTests
可在构建时跳过测试。mvn clean test
或 mvn test
运行所有单元测试。如果您只需要运行特定的测试,可以使用类似 mvn test -Dtest=TestDeltaSync -pl xtable-core
的命令。mvn clean verify
或 mvn verify
运行集成测试。mvn spotless:check
查找代码风格违规,使用 mvn spotless:apply
修复它们。代码风格检查默认与编译阶段绑定,因此代码风格违规会导致构建失败。mvn install -DskipTests
创建 jar 文件sourceFormat: HUDI targetFormats: - DELTA - ICEBERG datasets: - tableBasePath: s3://tpc-ds-datasets/1GB/hudi/call_center tableDataPath: s3://tpc-ds-datasets/1GB/hudi/call_center/data tableName: call_center namespace: my.db - tableBasePath: s3://tpc-ds-datasets/1GB/hudi/catalog_sales tableName: catalog_sales partitionSpec: cs_sold_date_sk:VALUE - tableBasePath: s3://hudi/multi-partition-dataset tableName: multi_partition_dataset partitionSpec: time_millis:DAY:yyyy-MM-dd,type:VALUE - tableBasePath: abfs://container@storage.dfs.core.windows.net/multi-partition-dataset tableName: multi_partition_dataset
sourceFormat
是你想要转换的源表格式targetFormats
是你想从源表创建的格式列表tableBasePath
是表的基础路径tableDataPath
是一个可选字段,指定数据文件的路径。如果未指定,将使用 tableBasePath。对于 Iceberg 源表,你需要指定 /data
路径。namespace
是一个可选字段,指定表的命名空间,在同步到目录时使用。partitionSpec
是一个允许我们推断分区值的规范。这仅适用于 Hudi 源表。如果表未分区,请留空。如果已分区,你可以指定一个以逗号分隔的列表,格式为 路径:类型:格式
路径
是指向分区字段的点分隔路径类型
描述了如何从列值生成分区值
VALUE
:字段值到分区值的恒等转换YEAR
:数据按表示日期的字段分区,使用年份粒度MONTH
:与 YEAR
相同,但使用月份粒度DAY
:与 YEAR
相同,但使用天粒度HOUR
:与 YEAR
相同,但使用小时粒度格式
:如果你的分区类型是 YEAR
、MONTH
、DAY
或 HOUR
,请指定日期字符串在文件路径中出现的格式# conversionSourceProviderClass:表格式转换器工厂的类名,用于从该格式的表中读取。所有用户配置, # 包括 hadoop 配置和转换器特定配置,都将可用于工厂实例化转换器。 # conversionTargetProviderClass:表格式转换器工厂的类名,用于写入该格式的表。 # configuration:特定于此转换器的配置值映射。 tableFormatConverters: HUDI: conversionSourceProviderClass: org.apache.xtable.hudi.HudiConversionSourceProvider DELTA: conversionTargetProviderClass: org.apache.xtable.delta.DeltaConversionTarget configuration: spark.master: local[2] spark.app.name: xtable
--icebergCatalogConfig
选项传入。目录配置文件的格式如下:catalogImpl: io.my.CatalogImpl catalogName: name catalogOptions: # 所有其他选项都通过映射传递 key1: value1 key2: value2
java -jar xtable-utilities/target/xtable-utilities-0.1.0-SNAPSHOT-bundled.jar --datasetConfig my_config.yaml [--hadoopConfig hdfs-site.xml] [--convertersConfig converters.yaml] [--icebergCatalogConfig catalog.yaml]
打包的 jar 文件包含 AWS、Azure 和 GCP 的 Hadoop 依赖项。配置转换器的示例 Hadoop 配置可以在 xtable-hadoop-defaults.xml 文件中找到。
自定义 Hadoop 配置可以通过 --hadoopConfig [custom-hadoop-config-file]
选项传入。
自定义 Hadoop 配置文件中的配置将覆盖默认的 Hadoop 配置。有关自定义 Hadoop 配置文件的示例,请参见 hadoop.xml。docker build . -t xtable
构建 Docker 镜像docker run \
-v ./xtable/config.yml:/xtable/config.yml \
-v ./xtable/core-site.xml:/xtable/core-site.xml \
-v ./xtable/catalog.yml:/xtable/catalog.yml \
xtable \
--datasetConfig /xtable/config.yml --hadoopConfig /xtable/core-site.xml --icebergCatalogConfig xtable/catalog.yml
要在 IntelliJ 上设置仓库,请打开项目并在 File->ProjectStructure 中将 Java 版本更改为 Java 11
如果你发现了bug,或者有想要贡献给项目的好想法,请在这里提交 GitHub issue
添加新的目标格式需要开发者实现 ConversionTarget。一旦你实现了该接口,你就可以将其集成到 ConversionController 中。如果你认为其他人可能会发现该目标有用,请提交 Pull Request 将其添加到项目中。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮 助用户精准表达,轻松呈现各种信息。
深度推理能力 全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。