flax

flax

灵活强大的JAX神经网络库和生态系统

Flax是一个基于JAX的高性能神经网络库,以灵活性为核心设计理念。它提供神经网络API、实用工具、教育示例和优化的大规模端到端示例。Flax支持MLP、CNN和自编码器等多种网络结构,并与Hugging Face集成,涵盖自然语言处理、计算机视觉和语音识别等领域。作为Google Research与开源社区合作开发的项目,Flax致力于促进JAX神经网络研究生态系统的发展。

FlaxJAX神经网络库机器学习深度学习Github开源项目
<div align="center"> <img src="https://yellow-cdn.veclightyear.com/ab5030c0/b2c54c6d-59a3-419c-b562-c0e68a9f0ad4.png" alt="logo"></img> </div>

Flax:为JAX设计的灵活性神经网络库和生态系统

构建 覆盖率

概述 | 快速安装 | Flax是什么样子的? | 文档

📣 新消息:查看NNXAPI!

这个README只是一个简短的介绍。要了解关于Flax的所有信息,请参阅我们的完整文档

Flax最初由Google Research的Brain团队的工程师和研究人员发起(与JAX团队密切合作),现在与开源社区共同开发。

Flax正被Alphabet各研究部门的数百名人员在日常工作中使用,同时也被越来越多的开源项目社区采用。

Flax团队的使命是服务于不断增长的JAX神经网络研究生态系统——不仅在Alphabet内部,也包括更广泛的社区,并探索JAX表现出色的应用场景。我们几乎所有的协调和计划都在GitHub上进行,也在那里讨论即将到来的设计变更。我们欢迎对任何讨论、问题和拉取请求线程提供反馈。我们正在将一些剩余的内部设计文档和对话线程转移到GitHub的讨论、问题和拉取请求中。我们希望能越来越多地满足更广泛生态系统的需求和澄清要求。请告诉我们我们如何能帮到您!

请在我们的讨论论坛中报告任何功能请求、问题、疑问或担忧,或者只是让我们知道您正在进行什么工作!

我们预计会改进Flax,但不会对核心API进行重大的破坏性更改。我们尽可能使用Changelog条目和弃用警告。

如果您想直接联系我们,我们的邮箱是flax-dev@google.com

概述

Flax是一个为JAX设计的高性能神经网络库和生态系统,专为灵活性而设计: 通过分叉示例并修改训练循环来尝试新的训练形式,而不是通过向框架添加功能。

Flax正在与JAX团队密切合作开发,并提供开始研究所需的一切,包括:

  • 神经网络APIflax.linen):Dense、Conv、{Batch|Layer|Group} Norm、Attention、Pooling、{LSTM|GRU} Cell、Dropout

  • 实用工具和模式:复制训练、序列化和检查点、指标、设备预取

  • 开箱即用的教育示例:MNIST、LSTM seq2seq、图神经网络、序列标记

  • 快速、调优的大规模端到端示例:CIFAR10、ImageNet上的ResNet、Transformer LM1b

快速安装

您需要Python 3.6或更高版本,以及一个可用的JAX安装(无论是否支持GPU - 参考说明)。 对于仅CPU版本的JAX:

pip install --upgrade pip # 支持manylinux2010 wheels。
pip install --upgrade jax jaxlib # 仅CPU

然后,从PyPi安装Flax:

pip install flax

要升级到最新版本的Flax,可以使用:

pip install --upgrade git+https://github.com/google/flax.git

要安装一些额外的依赖项(如matplotlib),这些是某些依赖项需要但未包含的,可以使用:

pip install "flax[all]"

Flax是什么样子的?

我们提供了三个使用Flax API的示例:一个简单的多层感知器、一个CNN和一个自动编码器。 要了解更多关于Module抽象的信息,请查看我们的文档,以及我们的Module抽象广泛介绍。如需更多具体的最佳实践演示,请参考我们的指南开发者笔记

from typing import Sequence import numpy as np import jax import jax.numpy as jnp import flax.linen as nn class MLP(nn.Module): features: Sequence[int] @nn.compact def __call__(self, x): for feat in self.features[:-1]: x = nn.relu(nn.Dense(feat)(x)) x = nn.Dense(self.features[-1])(x) return x model = MLP([12, 8, 4]) batch = jnp.ones((32, 10)) variables = model.init(jax.random.key(0), batch) output = model.apply(variables, batch)
class CNN(nn.Module): @nn.compact def __call__(self, x): x = nn.Conv(features=32, kernel_size=(3, 3))(x) x = nn.relu(x) x = nn.avg_pool(x, window_shape=(2, 2), strides=(2, 2)) x = nn.Conv(features=64, kernel_size=(3, 3))(x) x = nn.relu(x) x = nn.avg_pool(x, window_shape=(2, 2), strides=(2, 2)) x = x.reshape((x.shape[0], -1)) # 展平 x = nn.Dense(features=256)(x) x = nn.relu(x) x = nn.Dense(features=10)(x) x = nn.log_softmax(x) return x model = CNN() batch = jnp.ones((32, 64, 64, 10)) # (N, H, W, C) 格式 variables = model.init(jax.random.key(0), batch) output = model.apply(variables, batch)
class AutoEncoder(nn.Module): encoder_widths: Sequence[int] decoder_widths: Sequence[int] input_shape: Sequence[int] def setup(self): input_dim = np.prod(self.input_shape) self.encoder = MLP(self.encoder_widths) self.decoder = MLP(self.decoder_widths + (input_dim,)) def __call__(self, x): return self.decode(self.encode(x)) def encode(self, x): assert x.shape[1:] == self.input_shape return self.encoder(jnp.reshape(x, (x.shape[0], -1))) def decode(self, z): z = self.decoder(z) x = nn.sigmoid(z) x = jnp.reshape(x, (x.shape[0],) + self.input_shape) return x model = AutoEncoder(encoder_widths=[20, 10, 5], decoder_widths=[5, 10, 20], input_shape=(12,)) batch = jnp.ones((16, 12)) variables = model.init(jax.random.key(0), batch) encoded = model.apply(variables, batch, method=model.encode) decoded = model.apply(variables, encoded, method=model.decode)

🤗 Hugging Face

🤗 Transformers 仓库中,正在积极维护用于训练和评估各种Flax模型的详细示例,涵盖了自然语言处理、计算机视觉和语音识别领域。

截至2021年10月,Flax支持19种最常用的Transformer架构,并且已有超过5000个预训练的Flax检查点上传到🤗 Hub

引用Flax

要引用此仓库:

@software{flax2020github,
  author = {Jonathan Heek and Anselm Levskaya and Avital Oliver and Marvin Ritter and Bertrand Rondepierre and Andreas Steiner and Marc van {Z}ee},
  title = {{F}lax: A neural network library and ecosystem for {JAX}},
  url = {http://github.com/google/flax},
  version = {0.8.6},
  year = {2023},
}

在上述bibtex条目中,姓名按字母顺序排列,版本号来自flax/version.py,年份对应项目的开源发布年份。

注意

Flax 是一个由谷歌研究院专门团队维护的开源项目,但并非谷歌的官方产品。

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多