GENA_LM

GENA_LM

专为长DNA序列设计的开源基础模型家族

GENA-LM是专为长DNA序列设计的开源基础模型家族。它采用BPE分词方法,支持最长36k bp的输入序列,并基于最新T2T人类基因组进行预训练。该项目提供多种预训练模型,包括BERT和BigBird架构,可用于启动子预测和剪接位点识别等多种下游任务。GENA-LM为基因组学研究提供了新的分析工具,促进了DNA序列分析技术的进步。

GENA-LMDNA序列预训练模型转化器基因组学Github开源项目

GENA-LM

GENA-LM 是一系列用于长DNA序列的开源基础模型。

GENA-LM 模型是在人类DNA序列上训练的transformer掩码语言模型。

我们的GENA-LM模型的主要特点:

  • 使用BPE分词而非k-mers(DNABERT、Nucleotide Transformer)
  • 最大输入序列长度范围从4.5k到36k碱基对,相比之下DNABERT为512碱基对,Nucleotide Transformer为1000碱基对
  • 在最新的T2T人类基因组组装上进行预训练,而非GRCh38/hg38

预训练模型

模型架构最大序列长度,标记(碱基对)参数数分词器数据训练数据
bert-baseBERT-12L512(4500)110MT2T 拆分 v1T2T 拆分 v1
bert-base-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-lastln-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-t2t-multiBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs+多物种
bert-large-t2tBERT-24L512(4500)336MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-sparseBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T 拆分 v1T2T 拆分 v1
bigbird-base-sparse-t2tBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-t2tBERT-12L, HF BigBird4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs

T2T 拆分 v1 指的是使用未增强的T2T人类基因组组装拆分的初步模型。基于BERT的模型采用预层归一化,而lastln明确表示层归一化也应用于最后一层。RoPE表示使用旋转位置嵌入代替BERT类型的绝对位置嵌入。

对于我们的首批模型(gena-lm-bert-basegena-lm-bigbird-base-sparse),我们保留人类染色体22和Y(CP068256.2和CP086569.2)作为掩码语言建模任务的测试数据集。对于所有其他模型,我们保留人类染色体7和10(CP068271.2和CP068268.2);这些模型的名称中带有后缀"t2t"。其他数据用于训练。仅人类模型在预处理的Human T2T v2基因组组装及其1000基因组SNP增强数据上进行训练,总计约480 x 10^9碱基对。多物种模型在仅人类和多物种数据上进行训练,总计约1072 x 10^9碱基对。

下游任务上的预训练模型

模型任务任务序列长度指标HF 分支名称
gena-lm-bert-base-t2t启动子300bp74.56+-0.36 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子300bp76.44+-0.16 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子2000bp93.70+-0.44 F1promoters_2000_run_1
gena-lm-bert-base-t2t剪接位点15000bp92.63+-0.09 PR AUCspliceai_run_1
gena-lm-bert-large-t2t剪接位点15000bp93.59+-0.11 PR AUCspliceai_run_1

要获取下游任务上的预训练模型,请用表格中的值替换model_namebranch_name。表格中的指标是多次运行的平均值。因此,每个检查点的值可能与此处报告的有所不同。

from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained(f'AIRI-Institute/{model_name}') model = AutoModel.from_pretrained(f'AIRI-Institute/{model_name}', revision=branch_name, trust_remote_code=True)

示例

如何加载预训练的GENA-LM用于掩码语言建模

from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t') model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True)

如何加载预训练的GENA-LM以在分类任务上进行微调

从GENA-LM仓库获取模型类:

git clone https://github.com/AIRI-Institute/GENA_LM.git
from GENA_LM.src.gena_lm.modeling_bert import BertForSequenceClassification from transformers import AutoTokenizer tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t') model = BertForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t')

或者你可以直接下载modeling_bert.py并将其放在你的代码附近。

或者你可以从HuggingFace AutoModel获取模型类:

from transformers import AutoTokenizer, AutoModel model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True) gena_module_name = model.__class__.__module__ print(gena_module_name) import importlib # 可用的类名: # - BertModel, BertForPreTraining, BertForMaskedLM, BertForNextSentencePrediction, # - BertForSequenceClassification, BertForMultipleChoice, BertForTokenClassification, # - BertForQuestionAnswering # 查看 https://huggingface.co/docs/transformers/model_doc/bert cls = getattr(importlib.import_module(gena_module_name), 'BertForSequenceClassification') print(cls) model = cls.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', num_labels=2)

GENA-LM bigbird-base-t2t 模型使用HuggingFace BigBird实现。因此,可以使用Transformers库中的默认类:

from transformers import AutoTokenizer, BigBirdForSequenceClassification tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t') model = BigBirdForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t')

笔记本

  • 在Colab中打开 使用GENA-LM和Huggingface Transformers进行序列分类

  • 在Colab中打开 使用GENA LM生成的DNA嵌入进行聚类

  • 在Colab中打开 探索在Enformer数据集上微调的GENA-LM模型用于基因表达

引用

@article {GENA_LM,
	author = {Veniamin Fishman and Yuri Kuratov and Maxim Petrov and Aleksei Shmelev and Denis Shepelin and Nikolay Chekanov and Olga Kardymon and Mikhail Burtsev},
	title = {GENA-LM: A Family of Open-Source Foundational Models for Long DNA Sequences},
	elocation-id = {2023.06.12.544594},
	year = {2023},
	doi = {10.1101/2023.06.12.544594},
	publisher = {Cold Spring Harbor Laboratory},
	URL = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594},
	eprint = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594.full.pdf},
	journal = {bioRxiv}
}

下游任务

用于模型评估的下游任务包括预测启动子和增强子活性、剪接位点、染色质谱和多聚腺苷酸化位点强度。 查看downstream_tasks文件夹以获取我们使用的代码和数据预处理脚本:

预训练数据

下载和预处理数据

要下载人类基因组,请运行以下脚本:

./download_data.sh human

对于预处理,执行以下脚本:

python src/gena_lm/genome_tools/create_corpus.py --input_file data/ncbi_dataset/data/GCA_009914755.4/GCA_009914755.4_T2T-CHM13v2.0_genomic.fna --output_dir data/processed/human/

安装

对于具有稀疏注意力的模型(gena-lm-bigbird-base-sparsegena-lm-bigbird-base-sparse-t2t),需要FP16支持和DeepSpeed。

用于FP16的APEX

安装APEX https://github.com/NVIDIA/apex#quick-start

git clone https://github.com/NVIDIA/apex
cd apex
# 最新的提交可能会构建失败
git checkout 2386a912164b0c5cfcd8be7a2b890fbac5607c82
# 如果pip版本 >= 23.1(参考:https://pip.pypa.io/en/stable/news/#v23-1),支持多个相同键的`--config-settings`... 
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --config-settings "--build-option=--cpp_ext" --config-settings "--build-option=--cuda_ext" ./
# 否则
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --global-option="--cpp_ext" --global-option="--cuda_ext" ./

用于稀疏操作的DeepSpeed

需要安装DeepSpeed以使用语言模型的稀疏注意力版本。DeepSpeed稀疏注意力仅支持计算能力 >= 7的GPU(V100、T4、A100),CUDA 10.1、10.2、11.0或11.1,并且仅在FP16模式下运行(截至DeepSpeed 0.6.0)。

可以使用pytorch.org提供的CUDA 10.2/11.0/11.1版本的PyTorch>=1.7.1,<=1.10.1轮子。 但是,使用CUDA 11.1 PyTorch轮子的稀疏操作需要在系统上安装CUDA 11.3/11.4。 稀疏操作也可以与PyTorch==1.12.1 CUDA 11.3轮子一起使用,但运行DeepSpeed稀疏操作测试需要修改它们,因为它们检查Torch CUDA版本 <=11.1。 用于Triton 1.1.1的DeepSpeed分支已经更新了测试。

Triton 1.0.0和1.1.1需要python<=3.9。

pip install triton==1.0.0 DS_BUILD_SPARSE_ATTN=1 pip install deepspeed==0.6.0 --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令检查安装:

ds_report

Triton 1.1.1

Triton 1.1.1为A100上的稀疏操作带来了2倍的速度提升,但DeepSpeed(0.6.5)目前仅支持triton 1.0.0。 在需要这种速度提升的情况下,可以使用支持triton 1.1.1的DeepSpeed分支:

pip install triton==1.1.1 git clone https://github.com/yurakuratov/DeepSpeed.git cd DeepSpeed DS_BUILD_SPARSE_ATTN=1 pip install -e . --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令运行稀疏操作测试:

cd tests/unit pytest -v test_sparse_attention.py

使用lm-experiments-tools进行微调

我们使用lm-experiments-tools仓库中的Trainer和多GPU训练作为我们微调脚本的基础。但是,您也可以使用HF Transformers Trainer、PyTorch Lightning或Accelerate和PyTorch与自定义训练循环来代替。

根据https://github.com/yurakuratov/t5-experiments#install-only-lm_experiments_tools安装lm-experiments-tools:

git clone https://github.com/yurakuratov/t5-experiments
cd t5-experiments
pip install -e .

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多