GENA_LM

GENA_LM

专为长DNA序列设计的开源基础模型家族

GENA-LM是专为长DNA序列设计的开源基础模型家族。它采用BPE分词方法,支持最长36k bp的输入序列,并基于最新T2T人类基因组进行预训练。该项目提供多种预训练模型,包括BERT和BigBird架构,可用于启动子预测和剪接位点识别等多种下游任务。GENA-LM为基因组学研究提供了新的分析工具,促进了DNA序列分析技术的进步。

GENA-LMDNA序列预训练模型转化器基因组学Github开源项目

GENA-LM

GENA-LM 是一系列用于长DNA序列的开源基础模型。

GENA-LM 模型是在人类DNA序列上训练的transformer掩码语言模型。

我们的GENA-LM模型的主要特点:

  • 使用BPE分词而非k-mers(DNABERT、Nucleotide Transformer)
  • 最大输入序列长度范围从4.5k到36k碱基对,相比之下DNABERT为512碱基对,Nucleotide Transformer为1000碱基对
  • 在最新的T2T人类基因组组装上进行预训练,而非GRCh38/hg38

预训练模型

模型架构最大序列长度,标记(碱基对)参数数分词器数据训练数据
bert-baseBERT-12L512(4500)110MT2T 拆分 v1T2T 拆分 v1
bert-base-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-lastln-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-t2t-multiBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs+多物种
bert-large-t2tBERT-24L512(4500)336MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-sparseBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T 拆分 v1T2T 拆分 v1
bigbird-base-sparse-t2tBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-t2tBERT-12L, HF BigBird4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs

T2T 拆分 v1 指的是使用未增强的T2T人类基因组组装拆分的初步模型。基于BERT的模型采用预层归一化,而lastln明确表示层归一化也应用于最后一层。RoPE表示使用旋转位置嵌入代替BERT类型的绝对位置嵌入。

对于我们的首批模型(gena-lm-bert-basegena-lm-bigbird-base-sparse),我们保留人类染色体22和Y(CP068256.2和CP086569.2)作为掩码语言建模任务的测试数据集。对于所有其他模型,我们保留人类染色体7和10(CP068271.2和CP068268.2);这些模型的名称中带有后缀"t2t"。其他数据用于训练。仅人类模型在预处理的Human T2T v2基因组组装及其1000基因组SNP增强数据上进行训练,总计约480 x 10^9碱基对。多物种模型在仅人类和多物种数据上进行训练,总计约1072 x 10^9碱基对。

下游任务上的预训练模型

模型任务任务序列长度指标HF 分支名称
gena-lm-bert-base-t2t启动子300bp74.56+-0.36 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子300bp76.44+-0.16 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子2000bp93.70+-0.44 F1promoters_2000_run_1
gena-lm-bert-base-t2t剪接位点15000bp92.63+-0.09 PR AUCspliceai_run_1
gena-lm-bert-large-t2t剪接位点15000bp93.59+-0.11 PR AUCspliceai_run_1

要获取下游任务上的预训练模型,请用表格中的值替换model_namebranch_name。表格中的指标是多次运行的平均值。因此,每个检查点的值可能与此处报告的有所不同。

from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained(f'AIRI-Institute/{model_name}') model = AutoModel.from_pretrained(f'AIRI-Institute/{model_name}', revision=branch_name, trust_remote_code=True)

示例

如何加载预训练的GENA-LM用于掩码语言建模

from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t') model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True)

如何加载预训练的GENA-LM以在分类任务上进行微调

从GENA-LM仓库获取模型类:

git clone https://github.com/AIRI-Institute/GENA_LM.git
from GENA_LM.src.gena_lm.modeling_bert import BertForSequenceClassification from transformers import AutoTokenizer tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t') model = BertForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t')

或者你可以直接下载modeling_bert.py并将其放在你的代码附近。

或者你可以从HuggingFace AutoModel获取模型类:

from transformers import AutoTokenizer, AutoModel model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True) gena_module_name = model.__class__.__module__ print(gena_module_name) import importlib # 可用的类名: # - BertModel, BertForPreTraining, BertForMaskedLM, BertForNextSentencePrediction, # - BertForSequenceClassification, BertForMultipleChoice, BertForTokenClassification, # - BertForQuestionAnswering # 查看 https://huggingface.co/docs/transformers/model_doc/bert cls = getattr(importlib.import_module(gena_module_name), 'BertForSequenceClassification') print(cls) model = cls.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', num_labels=2)

GENA-LM bigbird-base-t2t 模型使用HuggingFace BigBird实现。因此,可以使用Transformers库中的默认类:

from transformers import AutoTokenizer, BigBirdForSequenceClassification tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t') model = BigBirdForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t')

笔记本

  • 在Colab中打开 使用GENA-LM和Huggingface Transformers进行序列分类

  • 在Colab中打开 使用GENA LM生成的DNA嵌入进行聚类

  • 在Colab中打开 探索在Enformer数据集上微调的GENA-LM模型用于基因表达

引用

@article {GENA_LM,
	author = {Veniamin Fishman and Yuri Kuratov and Maxim Petrov and Aleksei Shmelev and Denis Shepelin and Nikolay Chekanov and Olga Kardymon and Mikhail Burtsev},
	title = {GENA-LM: A Family of Open-Source Foundational Models for Long DNA Sequences},
	elocation-id = {2023.06.12.544594},
	year = {2023},
	doi = {10.1101/2023.06.12.544594},
	publisher = {Cold Spring Harbor Laboratory},
	URL = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594},
	eprint = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594.full.pdf},
	journal = {bioRxiv}
}

下游任务

用于模型评估的下游任务包括预测启动子和增强子活性、剪接位点、染色质谱和多聚腺苷酸化位点强度。 查看downstream_tasks文件夹以获取我们使用的代码和数据预处理脚本:

预训练数据

下载和预处理数据

要下载人类基因组,请运行以下脚本:

./download_data.sh human

对于预处理,执行以下脚本:

python src/gena_lm/genome_tools/create_corpus.py --input_file data/ncbi_dataset/data/GCA_009914755.4/GCA_009914755.4_T2T-CHM13v2.0_genomic.fna --output_dir data/processed/human/

安装

对于具有稀疏注意力的模型(gena-lm-bigbird-base-sparsegena-lm-bigbird-base-sparse-t2t),需要FP16支持和DeepSpeed。

用于FP16的APEX

安装APEX https://github.com/NVIDIA/apex#quick-start

git clone https://github.com/NVIDIA/apex
cd apex
# 最新的提交可能会构建失败
git checkout 2386a912164b0c5cfcd8be7a2b890fbac5607c82
# 如果pip版本 >= 23.1(参考:https://pip.pypa.io/en/stable/news/#v23-1),支持多个相同键的`--config-settings`... 
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --config-settings "--build-option=--cpp_ext" --config-settings "--build-option=--cuda_ext" ./
# 否则
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --global-option="--cpp_ext" --global-option="--cuda_ext" ./

用于稀疏操作的DeepSpeed

需要安装DeepSpeed以使用语言模型的稀疏注意力版本。DeepSpeed稀疏注意力仅支持计算能力 >= 7的GPU(V100、T4、A100),CUDA 10.1、10.2、11.0或11.1,并且仅在FP16模式下运行(截至DeepSpeed 0.6.0)。

可以使用pytorch.org提供的CUDA 10.2/11.0/11.1版本的PyTorch>=1.7.1,<=1.10.1轮子。 但是,使用CUDA 11.1 PyTorch轮子的稀疏操作需要在系统上安装CUDA 11.3/11.4。 稀疏操作也可以与PyTorch==1.12.1 CUDA 11.3轮子一起使用,但运行DeepSpeed稀疏操作测试需要修改它们,因为它们检查Torch CUDA版本 <=11.1。 用于Triton 1.1.1的DeepSpeed分支已经更新了测试。

Triton 1.0.0和1.1.1需要python<=3.9。

pip install triton==1.0.0 DS_BUILD_SPARSE_ATTN=1 pip install deepspeed==0.6.0 --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令检查安装:

ds_report

Triton 1.1.1

Triton 1.1.1为A100上的稀疏操作带来了2倍的速度提升,但DeepSpeed(0.6.5)目前仅支持triton 1.0.0。 在需要这种速度提升的情况下,可以使用支持triton 1.1.1的DeepSpeed分支:

pip install triton==1.1.1 git clone https://github.com/yurakuratov/DeepSpeed.git cd DeepSpeed DS_BUILD_SPARSE_ATTN=1 pip install -e . --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令运行稀疏操作测试:

cd tests/unit pytest -v test_sparse_attention.py

使用lm-experiments-tools进行微调

我们使用lm-experiments-tools仓库中的Trainer和多GPU训练作为我们微调脚本的基础。但是,您也可以使用HF Transformers Trainer、PyTorch Lightning或Accelerate和PyTorch与自定义训练循环来代替。

根据https://github.com/yurakuratov/t5-experiments#install-only-lm_experiments_tools安装lm-experiments-tools:

git clone https://github.com/yurakuratov/t5-experiments
cd t5-experiments
pip install -e .

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多