MedAlpaca是一个旨在为医疗领域提供开源大型语言模型的创新项目。该项目在Stanford Alpaca和AlpacaLoRA的基础上,开发了一系列专门针对医疗问答和对话应用进行微调的语言模型。MedAlpaca的主要目标是提供一套开源语言模型,为医疗聊天机器人等应用的开发铺平道路。
这些模型使用了多种医学文本进行训练,包括医学抗菌素卡片、医学百科和对话数据集等资源。通过对这些专业医学数据的学习,MedAlpaca模型能够更好地理解和回答医学领域的问题。
要开始使用MedAlpaca,首先需要配置适当的环境。建议使用conda创建一个新的虚拟环境:
conda create -n medalpaca python>=3.9
然后安装所需的依赖包:
pip install -r requirements.txt
MedAlpaca的训练过程主要基于LLaMA模型。如果你有访问LLaMA或Alpaca权重的权限,可以使用以下命令对模型进行微调:
python medalpaca/train.py \ --model PATH_TO_LLAMA_WEIGHTS \ --data_path medical_meadow_small.json \ --output_dir 'output' \ --train_in_8bit True \ --use_lora True \ --bf16 True \ --tf32 False \ --fp16 False \ --global_batch_size 128 \ --per_device_batch_size 8
这个脚本默认执行混合精度训练。你可以通过train_in_8bit
标志来切换8位训练。虽然8位训练目前只能与use_lora True
一起使用,但你可以在不使用8位训练的情况下使用LoRA。此脚本也能用于训练其他模型,如facebook/opt-6.7
。
研究团队对在单个GPU上微调LLaMA 7b模型所需的GPU内存和每 个epoch的大致持续时间进行了基准测试。以下是使用Medical Meadow小数据集(约6000个问答对)的结果:
模型 | 8位训练 | LoRA | fp16 | bf16 | 使用的VRAM | 梯度检查点 | 每轮时长 |
---|---|---|---|---|---|---|---|
LLaMA 7b | True | True | True | False | 8.9 GB | False | 77:30 |
LLaMA 7b | False | True | True | False | 18.8 GB | False | 14:30 |
LLaMA 7b | False | False | True | False | OOM | False | - |
LLaMA 7b | False | False | False | True | 79.5 GB | True | 35:30 |
LLaMA 7b | False | False | False | False | OOM | True | - |
这些基准测试结果为研究者和开发者提供了宝贵的参考,有助于他们根据自身的硬件条件选择合适的训练配置。
为了确保模型能够获得高质量的医学知识,研究团队精心收集并整理了一系列生物医学开源数据集,并将其转化为指令调优格式。这个被称为"Medical Meadow"的数据集目前包含约150万个数据点,涵盖了多种任务类型。
Medical Meadow数据集的主要组成部分包括:
这 些数据来源的多样性确保了MedAlpaca模型能够获得全面的医学知识,从而在各种医疗相关的问答和对话任务中表现出色。
为了评估MedAlpaca模型的性能,研究团队使用了USMLE(美国医师执照考试)自评测试作为基准。这个测试包含了Step 1、Step 2和Step 3三个阶段的问题,能够全面评估模型在医学领域的知识和推理能力。
以下是部分模型在USMLE自评测试中的表现:
模型 | Step1 | Step2 | Step3 |
---|---|---|---|
LLaMA 7b | 0.198 | 0.202 | 0.203 |
Alpaca 7b naive | 0.275 | 0.266 | 0.293 |
MedAlpaca 7b | 0.297 | 0.312 | 0.398 |
MedAlpaca 13b | 0.473 | 0.477 | 0.602 |
MedAlpaca 30b LoRA 8bit | 0.315 | 0.327 | 0.361 |
从这些结果可以看出,MedAlpaca模型,特别是13b版本,在医学问答任务上显著优于基础的LLaMA和Alpaca模型。这证明了专门针对医学领域进行微调的重要性。
所有的MedAlpaca模型都可以在Hugging Face平台上访问: https://huggingface.co/medalpaca
然而,需要特别注意的是,这些模型仅供研究目的使用,不应在任何医疗应用或环境中直接使用。尽管研究团队对这些实验性模型感到兴奋,但它们尚未经过广泛的测试或验证,其可靠性无法得到保证。在使用这些模型时,请务必谨慎行事。
MedAlpaca项目为医疗领域的人工智能应用开辟了新的可能性。通过提供开源的、专门针对医学问答任务优化的语言模型,该项目为研究人员和开发者提供了宝贵的资源。随着模型的不断改进和数据集的持续扩充,我们可以期待看到更多基于MedAlpaca的创新应用,从医学教育辅助工具到临床决策支持系统等。
然而,将这些模型应用于实际医疗场景仍然面临着巨大的挑战。确保模型输出的准确性、可解释性以及伦理合规性是未来研究的重要方向。同时,如何将这些模型与现有的医疗系统和工作流程无缝集成,也是需要深入探讨的问题。
总的来说,MedAlpaca项目代表了医疗AI领域的一个重要里程碑,它不仅推动了技术的进步,也为医疗保健的未来描绘了一幅充满希望的蓝图。随着研究的深入和技术的成熟,我们有理由相信,这类专业领域的AI模型将在提高医疗质量、降低成本和改善患者体验方面发挥越来越重要的作用。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号