1.8B参数的聊天模型,提升自然语言生成效果
H2O.ai推出1.8B参数的h2o-danube2-1.8b-chat模型,基于Llama 2架构,并经过H2O LLM Studio和Mistral分词器微调。该模型适用于多种文本生成应用,支持transformers库中的集成和量化、分片设置,提升计算效率。在基准测试中表现优异,并重视负责与道德使用,欢迎用户反馈以优化性能。
h2o-danube2-1.8b-chat 是由H2O.ai开发的一个具备1.8亿参数的聊天模型。这个项目提供了三个不同版本的模型,分别是基础模型、经过SFT调优的模型,以及经过SFT加DPO调优的聊天模型。这个强大的模型是通过H2O LLM Studio训练完成的,旨在增强聊天功能。
h2o-danube2-1.8b-chat 模型基于Llama 2架构进行了调整,总参数量大约为1.8亿。为了实现高效的文本生成,该模型选用了Mistral分词器,其词汇表大小达到32,000,支持的上下文长度可达8,192。这些配置确保了模型在处理长文本和复杂语境时的性能表现。
模型的主要超参数包括:
要在GPU机器上使用transformers
库来应用h2o-danube2-1.8b-chat模型,首先要确保安装了transformers
库。安装可以通过运行如下命令完成:
pip install transformers>=4.39.3
然后,通过以下Python代码即可进行文本生成:
import torch from transformers import pipeline pipe = pipeline( "text-generation", model="h2oai/h2o-danube2-1.8b-chat", torch_dtype=torch.bfloat16, device_map="auto", ) messages = [ {"role": "user", "content": "为什么喝水有益健康?"}, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True, ) res = pipe( prompt, max_new_tokens=256, ) print(res[0]["generated_text"])
此代码会自动应用并执行正确的交流格式转换。
模型支持通过设置load_in_8bit=True
或load_in_4bit=True
进行量化加载。与此同时,支持多GPU的自动分片设置,通过device_map=auto
实现。
在各项性能基准测试中,h2o-danube2-1.8b-chat展现了如下表现:
在多任务基准测试中,其第一次与第二次的平均分达到了5.79。
使用本模型前,请阅读并同意以下条件:
使用该模型即表示您同意相关条款,如不同意,请勿使用。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。