采用DPO精调提升文本生成基于Meta-Llama-3-70B-Instruct的高效量化模型
模型通过DPO精调优化文本生成,基于Meta-Llama-3-70B-Instruct开发,性能在多个基准测试中表现杰出,如IFEval 82.08、HellaSwag 86.22及GSM8k 88.25分。其量化特性提升效能,适宜多种应用场景。
calme-2.2-llama3-70b是一个基于Meta-Llama-3-70B-Instruct模型进行精调(DPO)后形成的模型版本。它在文本生成任务上表现优异,旨在增强自然语言处理应用的效果。
该模型由MaziyarPanahi创建,并使用了PyTorch深度学习框架进行开发。calme-2.2-llama3-70b曾被称为Llama-3-70B-Instruct-DPO-v0.2,为了避免与原始模型混淆,进行了更名。它采用了与ChatML兼容的prompt模板,使其在文本生成应用中具有通用性和灵活性。
模型在多个基准数据集上的测试结果显示,calme-2.2-llama3-70b在许多文本生成任务中取得了显著的成绩:
以上结果表明,该模型在多个类别的任务中都能够提供良好的表现和准确率,特别适用于复杂推理和语言理解任务。
calme-2.2-llama3-70b可以通过Hugging Face的transformers库调用使用。以下是在Python中加载和使用该模型进行文本生成的示例代码:
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer from transformers import pipeline import torch model_id = "MaziyarPanahi/calme-2.2-llama3-70b" model = AutoModelForCausalLM.from_pretrained( model_id, torch_dtype=torch.bfloat16, device_map="auto", trust_remote_code=True ) tokenizer = AutoTokenizer.from_pretrained( model_id, trust_remote_code=True ) streamer = TextStreamer(tokenizer) pipeline = pipeline( "text-generation", model=model, tokenizer=tokenizer, model_kwargs={"torch_dtype": torch.bfloat16}, streamer=streamer ) messages = [ {"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"}, {"role": "user", "content": "Who are you?"}, ] prompt = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) terminators = [ tokenizer.eos_token_id, tokenizer.convert_tokens_to_ids("