本仓库包含了论文《极其庞大的神经网络》中描述的稀疏门控专家混合(MoE)层在PyTorch中的重新实现。
from moe import MoE import torch # 实例化MoE层 model = MoE(input_size=1000, output_size=20, num_experts=10, hidden_size=66, k=4, noisy_gating=True) X = torch.rand(32, 1000) # 训练 model.train() # 前向传播 y_hat, aux_loss = model(X) # 评估 model.eval() y_hat, aux_loss = model(X)
要安装所需依赖,请运行:
pip install -r requirements.py
文件example.py
包含了一个最小工作示例,说明如何使用虚拟输入和目标来训练和评估MoE层。运行示例:
python example.py
文件cifar10_example.py
包含了CIFAR 10数据集的最小工作示例。使用任意超参数且未完全收敛的情况下,它达到了39%的准确率。运行示例:
python cifar10_example.py
FastMoE:快速专家混合训练系统 本实现被用作单GPU训练的PyTorch参考实现。
本代码基于此处的TensorFlow实现。
@misc{rau2019moe,
title={Sparsely-gated Mixture-of-Experts PyTorch implementation},
author={Rau, David},
journal={https://github.com/davidmrau/mixture-of-experts},
year={2019}
}
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效 率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。