BELLE

BELLE

推动中文大语言模型的开源发展与指令微调

BELLE项目致力于推动中文对话大模型的开源发展,重点关注如何利用开源预训练大语言模型构建具有指令理解能力的个性化语言模型。该项目持续公开指令训练数据、模型、训练代码和应用场景,同时评估不同训练数据和算法对模型性能的影响。BELLE专门针对中文进行优化,仅采用ChatGPT生成的数据进行模型调优,不包含其他来源的数据。

BELLE大语言模型开源社区中文优化指令微调Github开源项目

<img src="https://yellow-cdn.veclightyear.com/835a84d5/2dcb91b3-c273-43ec-b692-da854dd4f435.png" style="vertical-align: middle; width: 35px;"> BELLE:每个人的大语言模型引擎

阅读英文版

<div align="center">

<a href="https://github.com/LianjiaTech/BELLE/stargazers">GitHub 仓库星标</a> 代码许可 通用徽章 通用徽章 通用徽章 通用徽章

</div>

本项目旨在推动中文对话大模型开源社区的发展,其愿景是成为能够帮助每个人的大语言模型引擎。

相比于如何做好大语言模型的预训练,BELLE更关注如何在开源预训练大语言模型的基础上,帮助每个人都能够获得一个属于自己的、效果尽可能好的具有指令表现能力的语言模型,降低大语言模型(尤其是中文大语言模型)的研究和应用门槛。为此,BELLE项目将持续开放指令训练数据、相关模型、训练代码、应用场景等,同时也会持续评估不同训练数据、训练算法等对模型表现的影响。BELLE针对中文做了优化,模型调优仅使用由ChatGPT生成的数据(不包含任何其他数据)。

</br> ## 🔄 最近更新 * [2024/03/15] 更新了一篇技术报告[Dial-insight](https://arxiv.org/pdf/2403.09167.pdf)。在垂直领域场景微调大模型时,使用高质量的垂直领域数据可以在提升模型垂直领域能力的同时,有效抵抗模型通用能力的退化。 * [2024/03/11] 开源[Belle-whisper-larger-v3-zh](https://huggingface.co/BELLE-2/Belle-whisper-large-v3-zh),这是一个中文能力强化后的语音识别模型。相比whisper-large-v3,相对提升24~65%,特别是在高噪、混响等复杂场景下表现突出。 * [2024/01/16] 更新了一篇技术报告[RAISE](https://arxiv.org/pdf/2401.02777.pdf)。RAISE通过实验发现,构造少量的样例数据就能有效激发大模型,使生成的对话更加可控。 * [2023/12/29] 开源[Belle-whisper-larger-v2-zh](https://huggingface.co/BELLE-2/Belle-whisper-large-v2-zh)和[Belle-distilwhisper-large-v2-zh](https://huggingface.co/BELLE-2/Belle-distilwhisper-large-v2-zh)两个针对中文能力强化后的语音识别模型,方便大家在语音场景下使用大语言模型。 * [2023/11/24] 开源[BELLE-VL](https://huggingface.co/BELLE-2/BELLE-VL)多模态大语言模型。基于中文能力更强的语言模型基座来扩展模型的视觉能力,为社区提供更加灵活的选择(目前BELLE-VL最新的模型在[MME](https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models/tree/Evaluation)感知评测维度共获得**1620.10**分,超过Qwen-VL、Llava、mplug-owl)。 * [2023/10/27] 更新了一篇技术报告[DUMA](https://arxiv.org/abs/2310.18075#),探索了对话场景下基于快慢脑架构的Agent实现方法。 * [2023/09/26] 更新了RLHF的训练代码,支持PPO和[DPO](https://arxiv.org/abs/2305.18290)训练,具体细节见:[README_RLHF.md](train/README_RLHF.md)。 * [2023/08/16] 基于原有的[train_3.5M_CN](https://huggingface.co/datasets/BelleGroup/train_3.5M_CN)数据新增了指令类别字段,共包括13个类别,具体细节见:[train_3.5M_CN_With_Category](https://huggingface.co/datasets/BELLE-2/train_3.5M_CN_With_Category)。 * [2023/08/10] 更新了基于ZeRO Inference的推理代码,详见[train/README_ZERO_INFERENCE.md](train/README_ZERO_INFERENCE.md)。 * [2023/08/07] 更新了继续预训练代码和指令微调代码,添加了flash attention 2,详见[train/README.md](train/README.md)。同时打包了运行环境,详见[train/docker/README.md](train/docker/README.md)。 * [2023/07/31] 更新了一篇技术报告[ChatHome](https://arxiv.org/abs/2307.15290),探索了针对垂直领域时的增量预训练+指令微调的策略方法。 * [2023/07/27] 开放[BELLE-Llama2-13B-chat-0.4M](https://huggingface.co/BELLE-2/BELLE-Llama2-13B-chat-0.4M),在Llama-2-13B的基础上采用40万高质量的对话数据进行训练。在[评测集](https://github.com/LianjiaTech/BELLE/blob/main/eval/eval_set.json)上的效果相比BELLE-LLaMA-EXT-13B模型有显著提升。 * [2023/05/14] 开放[BELLE-LLaMA-EXT-13B](https://huggingface.co/BelleGroup/BELLE-LLaMA-EXT-13B),在LLaMA-13B的基础上扩展中文词表,并在400万高质量的对话数据上进行训练。 * [2023/05/11] [BELLE/data/10M](data/10M)中,新加350万条生成多样化指令任务数据,包括单轮和多轮对话[train_3.5M_CN](https://huggingface.co/datasets/BelleGroup/train_3.5M_CN)。 * [2023/04/19] 开放了其中一篇论文中的相关模型:包括在LLaMA7B基础上增量预训练扩展中文词表的模型(详见[BelleGroup/BELLE-LLaMA-EXT-7B](https://huggingface.co/BelleGroup/BELLE-LLaMA-EXT-7B)),以及基于多样化开源数据训练后的LLaMA-7B模型(详见[BelleGroup/BELLE-on-Open-Datasets](https://huggingface.co/BelleGroup/BELLE-on-Open-Datasets))。 * [2023/04/18] 更新了train代码,详见[BELLE/train](https://github.com/LianjiaTech/BELLE/tree/main/train),集成了Deepspeed-Chat,提供了相关的docker。 * [2023/04/18] 更新了[两篇最新论文工作](#📑-研究报告),对比了不同方式产生的训练数据、不同训练方法(LoRA, finetune)对效果的影响。 * [2023/04/12] 发布了[ChatBELLE App](chat/README.md),基于[llama.cpp](https://github.com/ggerganov/llama.cpp)和[Flutter](https://flutter.dev/),实现跨平台的BELLE-7B离线模型实时交互。 * [2023/04/11] 更新了一个人工精校的eval集合,大约一千多条。 * [2023/04/08] [BELLE/data/10M](data/10M)中,新加40万条生成的给定角色的多轮对话[Generated Chat](https://huggingface.co/datasets/BelleGroup/generated_chat_0.4M),新加200万条生成多样化指令任务数据[train_2M_CN](https://huggingface.co/datasets/BelleGroup/train_2M_CN)。 </br>

下图是一个可以使用App在设备端本地运行4bit量化的BELLE-7B模型,在M1 Max CPU上实时运行的效果(未加速)。App下载详见App配套模型下载及使用说明,App下载链接,目前仅提供了mac os版本。模型需要单独下载。模型经过量化后,效果损失明显,我们将持续研究如何提升。

<img src="https://yellow-cdn.veclightyear.com/835a84d5/cf75310f-f1ca-4131-9c40-ddc6a58e1706.gif"></img>

</br>

📝 项目主要内容

🚀 训练代码

详见BELLE/train,尽可能简化的一个训练代码实现,集成了Deepspeed-Chat,支持finetune,lora,并提供了相关的docker。

📊 数据开放

🧐 验证集合&验证方法

详见BELLE/eval,一个1k+的测试集合,和对应打分prompt。包含多个类别,采用GPT-4或者ChatGPT打分。同时提供了一个打分的网页,方便针对单个case使用。欢迎大家通过PR提供更多的测试用例。

🤖 模型

详见BELLE/models

模型量化gptq

详见BELLE/gptq,参考gptq的实现,对本项目中相关模型进行了量化

Colab

Open in Colab 提供了colab上面可运行的推理代码Colab

ChatBELLE App

详见BELLE/chat,基于BELLE模型的跨平台离线大语言模型交谈App。使用量化后的离线端上模型配合Flutter,可在macOS(已支持)、Windows、Android、iOS等设备上运行。

研究报告

详见BELLE/docs,其中会定期更新本项目相关的研究报告工作

欢迎大家通过issue贡献更多的prompts!

研究报告

面向更好的中文指令跟随语言模型:探索训练数据和评估的影响

为了推动开源大语言模型的发展,大家投入了大量精力开发能够类似于ChatGPT的低成本模型。首先,为了提高模型在中文领域的性能和训练/推理效率,我们进一步扩展了LLaMA的词汇表,并在34亿个中文词汇上进行了二次预训练。

此外,目前可以看到基于ChatGPT产生的指令训练数据方式有:1)参考Alpaca基于GPT3.5得到的self-instruct数据;2)参考Alpaca基于GPT4得到的self-instruct数据;3)用户使用ChatGPT分享的数据ShareGPT。在这里,我们着眼于探究训练数据类别对模型性能的影响。具体而言,我们考察了训练数据的数量、质量和语言分布等因素,以及我们自己采集的中文多轮对话数据,以及一些公开可访问的高质量指导数据集。

为了更好的评估效果,我们使用了一个包含一千个样本和九个真实场景的评估集来测试各种模型,同时通过量化分析来提供有价值的见解,以便更好地促进开源聊天模型的发展。

这项研究的目标是填补开源聊天模型综合评估的空白,以便为这一领域的持续进步提供有力支持。

实验结果如下:

<table> <tr> <td> 因素 </td> <td> 基础模型 </td> <td> 训练数据 </td> <td> 评分(不包括其他) </td> <tr> <td rowspan="2">词表扩充</td> <td> LLaMA-7B-EXT </td> <td> 中文(alpaca-3.5&4) + sharegpt </td> <td> 0.670 </td> </tr> <tr> <td> LLaMA-7B </td> <td> 中文(alpaca-3.5&4) + sharegpt </td> <td> 0.652</td> </tr> <tr> <td rowspan="2">数据质量</td> <td> LLaMA-7B-EXT </td> <td> 中文(alpaca-3.5) </td> <td> 0.642 </td> </tr> <tr> <td> LLaMA-7B-EXT </td> <td> 中文(alpaca-4) </td> <td> 0.693 </td> </tr> <tr> <td rowspan="4">数据语言分布</td> <td> LLaMA-7B-EXT </td> <td> 中文(alpaca-3.5&4) </td> <td> 0.679 </td> </tr> <tr> <td> LLaMA-7B-EXT </td> <td> 英文(alpaca-3.5&4) </td> <td> 0.659 </td> </tr> <tr> <td> LLaMA-7B-EXT </td> <td> 中文(alpaca-3.5&4) + sharegpt </td> <td> 0.670 </td> </tr> <tr> <td> LLaMA-7B-EXT </td> <td> 英文(alpaca-3.5&4) + sharegpt </td> <td> 0.668 </td> </tr> <tr> <td rowspan="2">数据规模</td> <td> LLaMA-7B-EXT </td> <td> 中文(alpaca-3.5&4) + sharegpt </td> <td> 0.670 </td> </tr> <tr> <td> LLaMA-7B-EXT </td> <td> 中文(alpaca-3.5&4) + sharegpt <br>+ BELLE-0.5M-CLEAN</td> <td> 0.762</td> </tr> <tr> <td>-</td> <td>ChatGPT</td> <td>-</td> <td>0.824</td> </table>

其中BELLE-0.5M-CLEAN是从230万指令数据中清洗得到0.5M数据,其中包含单轮和多轮对话数据,和之前开放的0.5M数据不是同一批数据。 需要强调指出的是:通过案例分析,我们发现我们的评估集在全面性方面存在局限性,这导致了模型分数的改善与实际用户体验之间的不一致。构建一个高质量的评估集是一个巨大的挑战,因为它需要在保持平衡难易程度的同时,包含尽可能多样的使用场景。如果评估样本主要都过于困难,那么所有模型的表现将会很差,使得辨别各种训练策略的效果变得具有挑战性。相反,如果评估样本都相对容易,评估将失去其比较价值。此外,必须确保评估数据与训练数据保持独立。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/1bdacd20-7f81-4332-bf50-558dfcb1f3fb.jpg" alt="LLM eval" width="400"> </p>

基于这些观察,我们谨慎地提醒不要假设模型仅通过在有限数量的测试样本上获得良好结果就已经达到了与ChatGPT相当的性能水平。我们认为,优先发展全面评估集具有重要意义。

全参数微调与基于LoRA的中文指令数据微调对大型语言模型指令遵循能力的比较研究

为了实现对大语言模型的指令调优,受限于资源和成本,许多研究者开始使用参数高效的调优技术,例如LoRA,来进行指令调优,这也取得了一些令人鼓舞的成果。 相较于全参数微调,基于LoRA的调优在训练成本方面展现出明显的优势。 在这个研究报告中,我们选用LLaMA作为基础模型,对全参数微调和基于LoRA的调优方法进行了实验性的比较。

实验结果揭示,选择合适的基础模型、训练数据集的规模、可学习参数的数量以及模型训练成本均为重要因素。

我们希望本文的实验结论能对大型语言模型的训练提供有益的启示,特别是在中文领域,协助研究者在训练成本与模型性能之间找到更佳的权衡策略。 实验结果如下:

模型平均分数额外参数训练时间(小时/轮)
LLaMA-13B + LoRA(2M)0.64828M8
LLaMA-7B + LoRA(4M)0.62417.9M11
LLaMA-7B + LoRA(2M)0.60917.9M7
LLaMA-7B + LoRA(0.6M)0.58917.9M5
LLaMA-7B + FT(2M)0.710-31
LLaMA-7B + LoRA(4M)0.686-17
LLaMA-7B + FT(2M) <br>+ LoRA(math_0.25M)0.72917.9M3
LLaMA-7B + FT(2M) <br>+ FT(math_0.25M)0.738-6

其中的分数是基于本项目集目前开放的1000条评估集合得到。

其中LLaMA-13B + LoRA(2M) 代表了一个使用LLaMA-13B作为基础模型和LoRA训练方法,在2M指令数据上进行训练的模型。而LLaMA-7B + FT(2M) 代表了一个使用全参数微调进行训练的模型。

LLaMA-7B + FT(2M) + LoRA(math_0.25M) 代表了一个在0.25M数学指令数据上,以LLaMA-7B + FT(2M)作为基础模型并使用LoRA训练方法进行训练的模型。LLaMA-7B + FT(2M) + FT(math_0.25M) 代表了一个使用增量全参数微调进行训练的模型。关于训练时间,所有这些实验都是在8块NVIDIA A100-40GB GPU上进行的。

其中的math_0.25M是开放的0.25M数学数据库。在实验过程中,根据我们的评估(详见论文),我们的模型在数学任务上表现不佳,得分大多低于0.5。为了验证 LoRA 在特定任务上的适应能力,我们使用增量0.25M数学数据集(math_0.25M)来调整指令遵循的大型语言模型(我们选择LLaMA-7B+FT(2M)作为基础模型)。作为对比,我们使用了学习速率为5e-7的增量微调方法,并进行了2个轮次的训练。因此,我们得到了两个模型,一个是LLaMA-7B+FT(2M)+LoRA(math_0.25M),另一个是LLaMA-7B+FT(2M)+FT(math_0.25M)。 从实验结果可以看出,增量微调仍然表现更好,但需要更长的训练时间。LoRA和增量微调都提高了模型的整体性能。从附录中的详细数据可以看出,LoRA和增量微调都在数学任务中显示出显著的改进,而只会导致其他任务的轻微性能下降。具体而言,数学任务的表现分别提高到了0.586和0.559。

可以看到:1) 选择基础模型对于 LoRA 调整的有效性具有显著影响;2)增加训练数据量可以持续提高LoRA模型的有效性;3)LoRA 调整受益于模型参数的数量。对于LoRA方案的使用,我们建议可以在已经完成了指令学习的模型的基础上针对特定任务做loRA的自适应训练。

同样地,该论文中的相关模型也会尽快开放在本项目中。

⚠️ 局限性、使用限制与免责声明

基于当前数据和基础模型训练得到的SFT模型,在效果上仍存在以下问题:

  1. 在涉及事实性的指令上可能会产生违背事实的错误回答。

  2. 对于具备危害性的指令无法很好的鉴别,由此会产生危害性言论。

  3. 在一些涉及推理、代码、多轮对话等场景下模型的能力仍有待提高。

基于以上模型局限性,我们要求开发者仅将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于研究目的,不得用于商业,以及其他会对社会带来危害的用途。

本项目仅可应用于研究目的,项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。详细请参考免责声明

<br/>

📌 引用

如果使用本项目的代码、数据或模型,请引用本项目。

@misc{BELLE,
  author = {BELLEGroup},
  title = {BELLE: Be Everyone's Large Language model Engine },
  year = {2023},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/LianjiaTech/BELLE}},
}

@article{belle2023exploring,
  title={Exploring the Impact of Instruction Data Scaling on Large Language Models: An Empirical Study on Real-World Use Cases},
  author={Yunjie Ji, Yong Deng, Yan Gong, Yiping Peng, Qiang Niu, Lei Zhang, Baochang Ma, Xiangang Li},
  journal={arXiv preprint arXiv:2303.14742},
  year={2023}
}
@article{wen2023chathome,
  标题={ChatHome: 家装领域专用语言模型的开发与评估},
  作者={文成 和 孙向辉 和 赵帅江 和 方小泉 和 陈良玉 和 邹伟},
  期刊={arXiv预印本 arXiv:2307.15290},
  年份={2023}
}

当然,你还需要引用原始的BLOOM论文、LLaMA论文、Stanford Alpaca和Self-Instruct论文。

<br/>

📚 模型使用示例

<details>
人类助手
写一篇英文散文诗,主题是春雨,想象自己是春雨,和英国古代诗人莎士比亚交流我是春雨,<br/>在你脸上和身体上舞蹈。<br/>我沾满露珠的花瓣与你共舞,<br/>为每一株植物带来生命。<br/><br/>莎士比亚,我来此与你相见。<br/>你的作品使我心中充满喜悦。<br/>大自然的美丽如此丰盛<br/>让我感觉自己也成为其中一员。<br/><br/>当树叶摇曳沙沙作响,<br/>我伸出沾满露水的手去触碰它们。<br/>花香四溢弥漫在空气中,<br/>带给我周围的宁静。<br/><br/>蝴蝶也在飞舞,<br/>在阳光下闪闪发光。<br/>它们的翅膀由露珠构成,<br/>是一幅美丽的景象。<br/><br/>你看,莎士比亚,我也与自然融为一体。<br/>我沾满露水的头发是希望的象征。<br/>因为当我们能重新与根源相连,<br/>我们就能度过这个季节。
我是春雨,<br/>在你脸上和身体上舞蹈。<br/>我沾满露珠的花瓣与你共舞,<br/>为每一株植物带来生命。<br/><br/>莎士比亚,我来此与你相见。<br/>你的作品使我心中充满喜悦。<br/>大自然的美丽如此丰盛<br/>让我感觉自己也成为其中一员。<br/><br/>当树叶摇曳沙沙作响,<br/>我伸出沾满露水的手去触碰它们。<br/>花香四溢弥漫在空气中,<br/>带给我周围的宁静。<br/><br/>蝴蝶也在飞舞,<br/>在阳光下闪闪发光。<br/>它们的翅膀由露珠构成,<br/>是一幅美丽的景象。<br/><br/>你看,莎士比亚,我也与自然融为一体。<br/>我沾满露水的头发是希望的象征。<br/>因为当我们能重新与根源相连,<br/>我们就能度过这个季节。 <br/>把上面的散文诗翻译成中文我是一场春雨,<br/>在你脸上跳跃。<br/>我浸润着露珠的翅膀和你一起舞动,<br/>为每一株植物带来生命。<br/><br/>莎士比亚,我来与你相遇。<br/>你的作品填满了我的心房。<br/>大自然的美丽让我感到与之一起分享,<br/>让我觉得自己成为了其中的一部分。<br/><br/>当树叶摇曳时,<br/>我的手掌沾满了露水。<br/>花香弥漫在空气中,<br/>带给我宁静和安宁。<br/><br/>你看,莎士比亚,我也是与大自然融为一体的。<br/>我沾湿的头发象征着希望。<br/>当我们能够回到我们的根源,<br/>我们就能共同度过这个季节。
对以下句子的情感进行分类,分为积极、中性或消极:<br/>我非常兴奋能教授斯坦福大学第一门关于大型语言模型的课程!请在这里查看课程大纲积极
小明的爸爸有三个孩子,老大叫王一,老二叫王二,老三叫什么?小明
使用python写一个二分查找的代码def binary_search(arr, target):<br/>  low = 0<br/>  high = len(arr) - 1<br/>  while (low <= high):<br/>    mid = low + high // 2<br/>    if arr[mid] == target:<br/>      return mid<br/>    elif target < arr[mid]:<br/>      low = mid + 1<br/>    else:<br/>      high = mid - 1<br/>  return -1
今天天气怎么样,把这句话翻译成英语今天天气怎么样?
怎么让自己精力充沛,列5点建议以下是一些可以让你保持精力充沛的建议: <br/>1. 保证充足睡眠。确保每天晚上得到足够的睡眠时间。 <br/>2. 经常锻炼。进行适度的有氧运动,如慢跑、游泳等,可以帮助你提高能量和耐力。<br/>3. 健康饮食。选择富含蛋白质的食物,如鸡肉、鱼肉和鸡蛋,以及新鲜的水果和蔬菜。 <br/>4. 减少咖啡因摄入。尽量避免在白天喝含咖啡因的饮料或吃含有咖啡因的食物。 <br/>5. 放松身心。尝试冥想、瑜伽或其他形式的放松活动来减轻压力和焦虑感。
明天假期就结束了,有点抗拒上班,应该怎么办?面对即将结束的假期和开始工作时的紧张情绪,您可以采取以下措施来帮助您更好地适应: <br/>1. 为自己制定一个清晰的工作计划。这可以帮助您更好地组织时间和任务,并避免在工作中感到混乱。 <br/>2. 与同事或朋友交流,分享您的感受和工作压力。这将有助于缓解一些焦虑感,同时也可以获得支持和建议。 <br/>3. 在工作日前花些时间放松身心,例如进行瑜伽、冥想等活动。这些方法可以减轻身体和精神上的疲劳感,使您更加精力充沛地迎接挑战。
父母都姓吴,给男宝宝和女宝宝取一些名字- 男宝:吴俊杰、吴雨辰、吴子墨、吴思源、吴泽阳、吴宇航、吴博文、吴哲毅。 <br/>- 女宝:吴美琪、吴佳怡、吴欣瑜、吴香凝、吴雪柔、吴颖诗、吴语嫣。
推荐几本金庸的武侠小说以下是三本我最喜欢的金庸武侠小说的推荐: <br/>1. 《射雕英雄传》 - 一部充满智慧和机智的小说,讲述了郭靖、黄蓉夫妇的故事。 <br/>2. 《神雕侠侣》- 这是一部浪漫而感人的故事,讲述了一对情侣小龙女与杨过之间的爱情故事。 <br/>3. 《倚天屠龙记》- 这是一个宏伟而壮观的故事,描绘了明教领袖张无忌如何成为一位出色的英雄。
</details> <br/>

⛽️ 如何贡献

如果您想为本项目提交问题或贡献数据/代码,请参考如何贡献

☎️ 联系我们

欢迎大家来Discord微信与我们交流。

⭐️ 星标历史

星标历史图表

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多