Yi-1.5

Yi-1.5

Yi模型的升级版,通过500B高质量语料预训练和300万样本微调而来

Yi-1.5是Yi模型的升级版,通过500B高质量语料预训练和300万样本微调而来。它在编码、数学、推理和指令跟随方面有显著提升,同时保持了优秀的语言理解和阅读能力。该系列提供34B、9B和6B三种规模,支持多种部署方式和fine-tuning。Yi-1.5以Apache 2.0许可开源,为AI领域提供了强大灵活的大语言模型选择。

Yi-1.5大语言模型开源人工智能自然语言处理Github开源项目
<div align="center"> <picture> <img src="https://yellow-cdn.veclightyear.com/835a84d5/907d6525-b850-4503-8113-421b62842500.svg" width="150px"> </picture> </div> <br/> <p align="center"> <a href="https://huggingface.co/01-ai">🤗 HuggingFace</a> • <a href="https://www.modelscope.cn/organization/01ai/">🤖 ModelScope</a> • <a href="https://wisemodel.cn/organization/01.AI">🟣 wisemodel</a> <br/> <a href="https://discord.gg/hYUwWddeAu">👾 Discord</a> • <a href="https://twitter.com/01ai_yi">🐤 Twitter</a> • <a href="https://github.com/01-ai/Yi-1.5/issues/2">💬 微信</a> <br/> <a href="https://arxiv.org/abs/2403.04652">📝 论文</a> • <a href="https://01-ai.github.io/">💪 技术博客</a> • <a href="https://github.com/01-ai/Yi/tree/main?tab=readme-ov-file#faq">🙌 常见问题</a> • <a href="https://github.com/01-ai/Yi/tree/main?tab=readme-ov-file#learning-hub">📗 学习中心</a> </p>

简介

Yi-1.5是Yi的升级版本。它在Yi的基础上使用5000亿个高质量语料库tokens进行持续预训练,并在300万个多样化的微调样本上进行了微调。

与Yi相比,Yi-1.5在编码、数学、推理和遵循指令的能力方面表现更强,同时保持了出色的语言理解、常识推理和阅读理解能力。

Yi-1.5有3种模型规模:34B、9B和6B。有关模型详情和基准测试,请参阅模型卡片

新闻

  • 2024年5月13日:Yi-1.5系列模型开源,进一步提升了编码、数学、推理和遵循指令的能力。

要求

  • 确保安装了Python 3.10或更高版本。

  • 设置环境并安装所需的包。

    pip install -r requirements.txt
  • Hugging FaceModelScopeWiseModel下载Yi-1.5模型。

快速开始

本教程在A800(80G)上本地运行Yi-1.5-34B-Chat。

from transformers import AutoModelForCausalLM, AutoTokenizer model_path = '<你的模型路径>' tokenizer = AutoTokenizer.from_pretrained(model_path, use_fast=False) # 自transformers 4.35.0版本以来,可以使用AutoModelForCausalLM加载GPT-Q/AWQ模型。 model = AutoModelForCausalLM.from_pretrained( model_path, device_map="auto", torch_dtype='auto' ).eval() # 提示内容:"hi" messages = [ {"role": "user", "content": "hi"} ] input_ids = tokenizer.apply_chat_template(conversation=messages, tokenize=True, return_tensors='pt') output_ids = model.generate(input_ids.to('cuda'), eos_token_id=tokenizer.eos_token_id) response = tokenizer.decode(output_ids[0][input_ids.shape[1]:], skip_special_tokens=True) # 模型回复:"你好!我今天能为你提供什么帮助?" print(response)

Ollama

你可以在本地使用Ollama运行Yi-1.5模型。

  1. 安装Ollama后,你可以启动Ollama服务。请注意,在使用Ollama时保持此服务运行。

    ollama serve
  2. 运行Yi-1.5模型。有关Ollama支持的更多Yi模型,请参见Yi标签

ollama run yi:v1.5
  1. 通过OpenAI兼容的API与Yi-1.5对话。有关如何在Ollama上通过OpenAI API和REST API使用Yi-1.5的更多详情,请参见Ollama文档
from openai import OpenAI client = OpenAI( base_url='http://localhost:11434/v1/', api_key='ollama', # 必填但会被忽略 ) chat_completion = client.chat.completions.create( messages=[ { 'role': 'user', 'content': '你叫什么名字', } ], model='yi:1.5', )

部署

前提条件:在部署Yi-1.5模型之前,请确保满足软件和硬件要求

vLLM

前提条件:下载最新版本的vLLM

  1. 使用聊天模型启动服务器。
python -m vllm.entrypoints.openai.api_server --model 01-ai/Yi-1.5-9B-Chat --served-model-name Yi-1.5-9B-Chat
  1. 使用聊天API。
  • HTTP
curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "Yi-1.5-9B-Chat", "messages": [ {"role": "system", "content": "你是一个乐于助人的助手。"}, {"role": "user", "content": "2020年谁赢得了世界大赛?"} ] }'
  • Python客户端
from openai import OpenAI # 设置OpenAI的API密钥和API基础URL以使用vLLM的API服务器。 openai_api_key = "EMPTY" openai_api_base = "http://localhost:8000/v1" client = OpenAI( api_key=openai_api_key, base_url=openai_api_base, ) chat_response = client.chat.completions.create( model="Yi-1.5-9B-Chat", messages=[ {"role": "system", "content": "你是一个乐于助人的助手。"}, {"role": "user", "content": "讲个笑话。"}, ] ) print("聊天响应:", chat_response)

Web演示

你可以通过huggingface聊天界面激活Yi-1.5-34B-Chat,然后体验它。

或者你可以自己在本地构建,如下所示:

python demo/web_demo.py -c <你的模型路径>

微调

你可以使用LLaMA-FactorySwiftXTunerFirefly进行微调。这些框架都支持微调Yi系列模型。

API

Yi API与OpenAI兼容,并在Yi平台提供。注册即可获得免费令牌,你还可以以有竞争力的价格按使用量付费。此外,Yi API也部署在ReplicateOpenRouter上。

许可证

Yi-1.5系列模型的代码和权重在Apache 2.0许可证下分发。

如果你基于此模型创建衍生作品,请在你的衍生作品中包含以下归属:

本作品是基于01.AI的[你所基于的Yi-1.5系列模型]的衍生作品,使用Apache 2.0许可证。
<p align="right"> [ <a href="#top">返回顶部 ⬆️ </a> ] </p>

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多