GENA_LM

GENA_LM

专为长DNA序列设计的开源基础模型家族

GENA-LM是专为长DNA序列设计的开源基础模型家族。它采用BPE分词方法,支持最长36k bp的输入序列,并基于最新T2T人类基因组进行预训练。该项目提供多种预训练模型,包括BERT和BigBird架构,可用于启动子预测和剪接位点识别等多种下游任务。GENA-LM为基因组学研究提供了新的分析工具,促进了DNA序列分析技术的进步。

GENA-LMDNA序列预训练模型转化器基因组学Github开源项目

GENA-LM

GENA-LM 是一系列用于长DNA序列的开源基础模型。

GENA-LM 模型是在人类DNA序列上训练的transformer掩码语言模型。

我们的GENA-LM模型的主要特点:

  • 使用BPE分词而非k-mers(DNABERT、Nucleotide Transformer)
  • 最大输入序列长度范围从4.5k到36k碱基对,相比之下DNABERT为512碱基对,Nucleotide Transformer为1000碱基对
  • 在最新的T2T人类基因组组装上进行预训练,而非GRCh38/hg38

预训练模型

模型架构最大序列长度,标记(碱基对)参数数分词器数据训练数据
bert-baseBERT-12L512(4500)110MT2T 拆分 v1T2T 拆分 v1
bert-base-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-lastln-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-t2t-multiBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs+多物种
bert-large-t2tBERT-24L512(4500)336MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-sparseBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T 拆分 v1T2T 拆分 v1
bigbird-base-sparse-t2tBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-t2tBERT-12L, HF BigBird4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs

T2T 拆分 v1 指的是使用未增强的T2T人类基因组组装拆分的初步模型。基于BERT的模型采用预层归一化,而lastln明确表示层归一化也应用于最后一层。RoPE表示使用旋转位置嵌入代替BERT类型的绝对位置嵌入。

对于我们的首批模型(gena-lm-bert-basegena-lm-bigbird-base-sparse),我们保留人类染色体22和Y(CP068256.2和CP086569.2)作为掩码语言建模任务的测试数据集。对于所有其他模型,我们保留人类染色体7和10(CP068271.2和CP068268.2);这些模型的名称中带有后缀"t2t"。其他数据用于训练。仅人类模型在预处理的Human T2T v2基因组组装及其1000基因组SNP增强数据上进行训练,总计约480 x 10^9碱基对。多物种模型在仅人类和多物种数据上进行训练,总计约1072 x 10^9碱基对。

下游任务上的预训练模型

模型任务任务序列长度指标HF 分支名称
gena-lm-bert-base-t2t启动子300bp74.56+-0.36 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子300bp76.44+-0.16 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子2000bp93.70+-0.44 F1promoters_2000_run_1
gena-lm-bert-base-t2t剪接位点15000bp92.63+-0.09 PR AUCspliceai_run_1
gena-lm-bert-large-t2t剪接位点15000bp93.59+-0.11 PR AUCspliceai_run_1

要获取下游任务上的预训练模型,请用表格中的值替换model_namebranch_name。表格中的指标是多次运行的平均值。因此,每个检查点的值可能与此处报告的有所不同。

from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained(f'AIRI-Institute/{model_name}') model = AutoModel.from_pretrained(f'AIRI-Institute/{model_name}', revision=branch_name, trust_remote_code=True)

示例

如何加载预训练的GENA-LM用于掩码语言建模

from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t') model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True)

如何加载预训练的GENA-LM以在分类任务上进行微调

从GENA-LM仓库获取模型类:

git clone https://github.com/AIRI-Institute/GENA_LM.git
from GENA_LM.src.gena_lm.modeling_bert import BertForSequenceClassification from transformers import AutoTokenizer tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t') model = BertForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t')

或者你可以直接下载modeling_bert.py并将其放在你的代码附近。

或者你可以从HuggingFace AutoModel获取模型类:

from transformers import AutoTokenizer, AutoModel model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True) gena_module_name = model.__class__.__module__ print(gena_module_name) import importlib # 可用的类名: # - BertModel, BertForPreTraining, BertForMaskedLM, BertForNextSentencePrediction, # - BertForSequenceClassification, BertForMultipleChoice, BertForTokenClassification, # - BertForQuestionAnswering # 查看 https://huggingface.co/docs/transformers/model_doc/bert cls = getattr(importlib.import_module(gena_module_name), 'BertForSequenceClassification') print(cls) model = cls.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', num_labels=2)

GENA-LM bigbird-base-t2t 模型使用HuggingFace BigBird实现。因此,可以使用Transformers库中的默认类:

from transformers import AutoTokenizer, BigBirdForSequenceClassification tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t') model = BigBirdForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t')

笔记本

  • 在Colab中打开 使用GENA-LM和Huggingface Transformers进行序列分类

  • 在Colab中打开 使用GENA LM生成的DNA嵌入进行聚类

  • 在Colab中打开 探索在Enformer数据集上微调的GENA-LM模型用于基因表达

引用

@article {GENA_LM,
	author = {Veniamin Fishman and Yuri Kuratov and Maxim Petrov and Aleksei Shmelev and Denis Shepelin and Nikolay Chekanov and Olga Kardymon and Mikhail Burtsev},
	title = {GENA-LM: A Family of Open-Source Foundational Models for Long DNA Sequences},
	elocation-id = {2023.06.12.544594},
	year = {2023},
	doi = {10.1101/2023.06.12.544594},
	publisher = {Cold Spring Harbor Laboratory},
	URL = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594},
	eprint = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594.full.pdf},
	journal = {bioRxiv}
}

下游任务

用于模型评估的下游任务包括预测启动子和增强子活性、剪接位点、染色质谱和多聚腺苷酸化位点强度。 查看downstream_tasks文件夹以获取我们使用的代码和数据预处理脚本:

预训练数据

下载和预处理数据

要下载人类基因组,请运行以下脚本:

./download_data.sh human

对于预处理,执行以下脚本:

python src/gena_lm/genome_tools/create_corpus.py --input_file data/ncbi_dataset/data/GCA_009914755.4/GCA_009914755.4_T2T-CHM13v2.0_genomic.fna --output_dir data/processed/human/

安装

对于具有稀疏注意力的模型(gena-lm-bigbird-base-sparsegena-lm-bigbird-base-sparse-t2t),需要FP16支持和DeepSpeed。

用于FP16的APEX

安装APEX https://github.com/NVIDIA/apex#quick-start

git clone https://github.com/NVIDIA/apex
cd apex
# 最新的提交可能会构建失败
git checkout 2386a912164b0c5cfcd8be7a2b890fbac5607c82
# 如果pip版本 >= 23.1(参考:https://pip.pypa.io/en/stable/news/#v23-1),支持多个相同键的`--config-settings`... 
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --config-settings "--build-option=--cpp_ext" --config-settings "--build-option=--cuda_ext" ./
# 否则
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --global-option="--cpp_ext" --global-option="--cuda_ext" ./

用于稀疏操作的DeepSpeed

需要安装DeepSpeed以使用语言模型的稀疏注意力版本。DeepSpeed稀疏注意力仅支持计算能力 >= 7的GPU(V100、T4、A100),CUDA 10.1、10.2、11.0或11.1,并且仅在FP16模式下运行(截至DeepSpeed 0.6.0)。

可以使用pytorch.org提供的CUDA 10.2/11.0/11.1版本的PyTorch>=1.7.1,<=1.10.1轮子。 但是,使用CUDA 11.1 PyTorch轮子的稀疏操作需要在系统上安装CUDA 11.3/11.4。 稀疏操作也可以与PyTorch==1.12.1 CUDA 11.3轮子一起使用,但运行DeepSpeed稀疏操作测试需要修改它们,因为它们检查Torch CUDA版本 <=11.1。 用于Triton 1.1.1的DeepSpeed分支已经更新了测试。

Triton 1.0.0和1.1.1需要python<=3.9。

pip install triton==1.0.0 DS_BUILD_SPARSE_ATTN=1 pip install deepspeed==0.6.0 --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令检查安装:

ds_report

Triton 1.1.1

Triton 1.1.1为A100上的稀疏操作带来了2倍的速度提升,但DeepSpeed(0.6.5)目前仅支持triton 1.0.0。 在需要这种速度提升的情况下,可以使用支持triton 1.1.1的DeepSpeed分支:

pip install triton==1.1.1 git clone https://github.com/yurakuratov/DeepSpeed.git cd DeepSpeed DS_BUILD_SPARSE_ATTN=1 pip install -e . --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令运行稀疏操作测试:

cd tests/unit pytest -v test_sparse_attention.py

使用lm-experiments-tools进行微调

我们使用lm-experiments-tools仓库中的Trainer和多GPU训练作为我们微调脚本的基础。但是,您也可以使用HF Transformers Trainer、PyTorch Lightning或Accelerate和PyTorch与自定义训练循环来代替。

根据https://github.com/yurakuratov/t5-experiments#install-only-lm_experiments_tools安装lm-experiments-tools:

git clone https://github.com/yurakuratov/t5-experiments
cd t5-experiments
pip install -e .

编辑推荐精选

商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
下拉加载更多