tf2jax

tf2jax

实验性TensorFlow到JAX函数转换库

tf2jax是一个实验性库,用于将TensorFlow函数和计算图转换为JAX函数。它支持SavedModel和TensorFlow Hub格式,使现有TensorFlow模型能够在JAX环境中重用。该库提供透明的转换过程,便于调试和分析。tf2jax支持自定义梯度和随机性处理,并提供灵活的配置选项。尽管存在一些限制,tf2jax为JAX用户提供了一种集成TensorFlow功能的有效方法。

TF2JAXTensorFlowJAX函数转换机器学习Github开源项目

TF2JAX

CI 状态 pypi

TF2JAX 是一个实验性库,用于将 [TensorFlow] 函数/图转换为 [JAX] 函数。

具体来说,它旨在将 tf.function 转换,例如:

@tf.function def tf_fn(x): return tf.sin(tf.cos(x))

转换为等效的以下 JAX 代码的 Python 函数:

def jax_fn(x): return jnp.sin(jnp.cos(x))

用户可以对转换后的函数应用额外的 JAX 变换(如 jitgradvmapmake_jaxpr 等),就像对其他用 JAX 编写的代码一样。

[目录]

安装

您可以通过 PyPI 安装 TF2JAX 的最新发布版本:

pip install tf2jax

或者您可以从 GitHub 安装最新的开发版本:

pip install git+https://github.com/google-deepmind/tf2jax.git

动机

TF2JAX 使现有的 TensorFlow 函数和模型(包括 SavedModelTensorFlow Hub)能够在 JAX 代码库中重用和/或微调。转换过程对用户来说是透明的,这对调试和内省很有用。

这也为 JAX 用户提供了一种途径,将通过 jax2tf.convert 序列化的 JAX 函数重新集成到他们现有的 JAX 代码库中。

请参阅末尾的章节,了解与 jax2tf.call_tf 提供的替代方法的比较。

免责声明

这是一个实验性代码,API 可能不稳定,目前不对使用它提供任何保证。我们强烈建议您彻底测试生成的 JAX 函数,以确保它们满足您的要求。

快速开始

本文档的其余部分假设有以下导入:

import jax import jax.numpy as jnp import numpy as np import tensorflow as tf # 假设这是 v2。 import tf2jax

使用 convert API 和 Sonnet v2 MLP 的示例。

import sonnet.v2 as snt model = snt.nets.MLP((64, 10,)) @tf.function def forward(x): return model(x) x = np.random.normal(size=(128, 16)).astype(np.float32) # TF -> JAX,jax_params 是 MLP 的网络参数 jax_func, jax_params = tf2jax.convert(forward, np.zeros_like(x)) # 调用 JAX,同时返回更新后的 jax_params(如变量、批归一化统计信息) jax_outputs, jax_params = jax_func(jax_params, x)

tf2jax.convert 的签名为 convert(fn: tf.Function, *args, **kwargs),其中 fn(*args, **kwargs) 用于追踪函数 fn 并生成相应的 tf.GraphDef。这里的 zeros_like 不是必需的,只是用来演示 JAX 函数并没有记忆输出。

纯函数示例

如果您的函数是纯函数,即它不捕获任何变量,那么您可以使用 tf2jax.convert_functional 从转换后函数的输入和输出中删除参数。

@tf.function def forward(x): return tf.sin(tf.cos(x)) jax_func = tf2jax.convert_functional(forward, np.zeros_like(x)) jax_outputs = jax_func(x)

随机性和 PRNG 键

使用随机操作的 TensorFlow 函数将被转换为一个 JAX 函数,该函数将 PRNG 键作为仅关键字参数。如果需要 PRNG 键但未提供,TF2JAX 将大声抱怨。

jax_outputs, jax_params = jax_func(jax_params, x, rng=jax.random.PRNGKey(42))

自定义梯度

自定义梯度支持仍处于高度实验阶段,请报告任何错误。

@tf.function @tf.custom_gradient def forward(x): e = tf.exp(x) def grad(dy): return dy * tf.sin(x) + e # 这是故意错误的梯度。 return tf.reduce_sum(e), grad with tf2jax.override_config("convert_custom_gradient", True): jax_func = tf2jax.convert_functional(forward, np.zeros_like(x)) jax_grads = jax.grad(jax_func)(x)

序列化格式支持

SavedModel

SavedModel 是序列化 TF2 函数的首选格式。

model = tf.Module() model.f = forward model.f(x) # 虚拟调用。 tf.saved_model.save(model, "/tmp/blah") restored = tf.saved_model.load("/tmp/blah") jax_func, jax_params = tf2jax.convert(restored.f, np.zeros_like(x))

如果恢复的函数具有明确的签名,即在导出之前只被追踪过一次。那么 TF2JAX 可以直接从其 GraphDef 转换函数,而无需再次追踪。

jax_func, jax_params = tf2jax.convert_from_restored(restored.f)

TF-Hub

支持(传统的 TF1)TF-Hub 格式,只需少量样板代码。

import tensorflow_hub as hub hub_model = hub.load("/tmp/blah") jax_func, jax_params = tf2jax.convert(tf.function(hub_model), tf.zeros_like(x)) jax_outputs, updated_jax_params = jax_func(jax_params, x)

JAX 到 TensorFlow 再回到 JAX

tf2jax.convert_functional 可以将 jax2tf.convert 的输出转换回 JAX 代码。

# 一些 JAX 函数。 def forward(*inputs): ... # JAX -> TF tf_func = jax2tf.convert(forward) # JAX -> TF -> JAX jax_func = tf2jax.convert_functional(tf.function(tf_func), *tree.map_structure(np.zeros_like, inputs)) # JAX -> TF -> SavedModel -> TF model = tf.Module() model.f = tf.function(tf_func) model.f(*tree.map_structure(tf.zeros_like, inputs)) # 虚拟调用。 tf.saved_model.save(model, "/tmp/blah") restored = tf.saved_model.load("/tmp/blah") # JAX -> TF -> SavedModel -> TF -> JAX jax_too_func = tf2jax.convert_functional(restored.f, *tree.map_structure(np.zeros_like, inputs))

附加配置

TF2JAX 的行为可以通过 tf2jax.update_config 全局配置,或通过上下文管理器 tf2jax.override_config 在局部配置。

严格的形状和数据类型检查

默认情况下,TF2JAX 将断言转换后函数的输入形状与原始函数的输入形状兼容。这是因为一些函数具有依赖于形状的行为,在转换后会静默地返回不正确的输出,例如某些批归一化实现。

jax_func = tf2jax.convert_functional(forward, np.zeros((10, 5), np.float32)) # 这将引发错误。 jax_func(np.zeros((20, 5), np.float32)) # 这不会。 with tf2jax.override_config("strict_shape_check", False): jax_func(np.zeros((20, 5), np.float32))

目前不检查输入数据类型,但这可能在将来发生变化。

jax_func = tf2jax.convert_functional(forward, np.zeros((10, 5), np.float32)) # 这不会引发错误。 jax_func(np.zeros((20, 5), np.int32)) # 这会。 with tf2jax.override_config("strict_dtype_check", True): jax_func(np.zeros((20, 5), np.int32))

将常量转换为 bfloat16

TF2JAX 允许用户使用与原始函数不同精度的参数和输入来追踪转换后的函数,例如使用 bfloat16 而不是 float32。为了帮助实现这一点,配置 force_const_float32_to_bfloat16force_const_float64_to_bfloat16 可以用来强制将原始函数中的浮点常量转换为 bfloat16 精度,以避免意外的类型提升。

@tf.function def forward(x): return x + tf.constant(3.14, dtype=tf.float32) with tf2jax.override_config("force_const_float32_to_bfloat16", True): jax_func = tf2jax.convert_functional(forward, np.zeros_like(x)) jax_bf16_outputs = jax_func(jnp.asarray(x, jnp.bfloat16))

禁用 PreventGradient

如果使用 jax2tf.convert(..., with_gradient=False) 生成初始 TF 函数(并可能导出为 SavedModel),那么 TF2JAX 将尊重插入的 tf.raw_ops.PreventGradient 操作,并在计算梯度时引发 LookupError

通过将配置 raise_on_prevent_gradient 设置为 false(默认为 true),可以禁用此行为,这样 TF2JAX 将只记录警告,但允许计算梯度,就好像 PreventGradient 操作不存在一样。

@tf.function def prevent(x): return tf.raw_ops.PreventGradient(input=x * x, message="prevented") jax_func = tf2jax.convert_functional(prevent, 0.0) jax.grad(jax_func)(3.14) # 引发 LookupError。 with tf2jax.config.override_config("raise_on_prevent_gradient", False): jax_func = tf2jax.convert_functional(prevent, 0.0) g = jax.grad(jax_func)(3.14) # 返回 6.28。

推断累积归约

如果 infer_cumulative_reduction_from_jax2tf 标志为 true(默认),则 TF2JAX 将尝试从 JAX2TF 生成的 reduce_window 操作中推断 cummaxcummincumprodcumsum 操作。这提供了更好的性能,因为这些操作的 reduce_window 实现在 CPU 和 GPU 后端上具有 O(N^2) 的复杂度,并且由于积极的常量折叠可能会导致长时间的编译时间。

有关更多背景信息,请参阅 [jax2tf_cumulative_reduction]。

JAX2TF 原生序列化和 XlaCallModule

从 JAX v0.4.7 开始,jax2tf.convert 的首选操作模式(即将成为默认模式)是原生序列化,其中目标函数被降级为 [StableHLO] 并包装在单个 TensorFlow 操作 XlaCallModule 中。 新的原生序列化格式将更忠实地再现目标函数的语义,代价是下游处理的灵活性有所降低,因为计算图不再以tf.Graph的形式暴露。

从v0.3.4版本开始,TF2JAX支持XlaCallModule

然而,由于这使用了一个自定义JAX原语,旨在封装XlaCallModule中的[StableHLO]载荷,它不具备JAX规则来进行诸如批处理和微分等转换(但不限于这些)。

  • 微分:通过在序列化时使用jax2tf.convert(..., with_gradient=True)请求自定义梯度,仍然支持序列化函数的一阶导数。这是默认行为。
  • 批处理jax.vmap将会失败,不过用户可能可以通过jax.lax.map简单地复制所需行为,尽管性能会较差。

平台特异性

原生序列化的JAX程序是平台特定的。在非目标平台上执行原生序列化程序会引发ValueError,例如:

ValueError: 不支持的后端:`cpu`不在`('tpu',)`中。

这与XlaCallModule的行为一致。

用户可以通过配置标志禁用此检查,但得到的程序可能会变慢或完全无法执行。

with tf2jax.override_config("xlacallmodule_strict_checks", False): jax_func(np.zeros((20, 5), np.float32))

限制

目前,仅支持部分TensorFlow算子,某些算子并非所有功能都受支持。代码会快速失败。根据需求添加对其他TensorFlow算子的支持。请通过Github问题提交您的请求或发送拉取请求。

在某些情况下,生成的JAX代码可能在性能和数值输出方面与TensorFlow代码不等效。我们的目标是最小化模型端点在后者方面的差异,然后再改进性能。

TF2控制流受支持,但有一些限制,例如对于while循环,condbody函数不能有副作用,如给变量赋值。

不支持TF1控制流。

替代方案

jax2tf.call_tf

jax2tf现在还提供了实验性的call_tf函数,允许JAX调用TensorFlow函数。对于编译代码,这通过将TensorFlow函数阶段化到XLA来实现。

根据2022-07-22的[jax2tf文档]:

call_tf函数允许JAX函数调用TensorFlow函数。这些函数可以在JAX计算的任何位置调用,包括在jax.jitjax.pmapjax.xmap等暂存上下文中,或在JAX的控制流原语内部。在非暂存上下文中,TensorFlow函数以急切模式调用。目前,这些函数仅支持反向模式自动微分(不支持前向模式自动微分,也不支持vmap)。

call_tf的优势在于它隐式覆盖了所有TensorFlow算子,并通过在急切执行期间推迟到TensorFlow,在编译代码时推迟到XLA来支持custom_gradient

缺点是它只支持有限的JAX转换(jitgradpmapremat),否则对JAX来说就像一个"黑盒"(例如,不支持vmap,也不支持自定义转换)。如果要在call_tf之后进行jit编译,TensorFlow函数必须可编译为XLA。

引用TF2JAX

本仓库是[DeepMind JAX生态系统]的一部分,引用TF2JAX请使用[DeepMind JAX生态系统引用]。

贡献

我们很乐意接受改进我们对TensorFlow算子覆盖范围的拉取请求。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多