AlphaFlow是AlphaFold的一个修改版本,通过流匹配目标进行了微调,旨在对蛋白质构象集合进行生成建模。具体来说,AlphaFlow旨在模拟:
我们还提供了一个类似微调的ESMFold版本,称为ESMFlow。技术细节和全面的基准测试结果可以在我们的论文《AlphaFold遇上流匹配:生成蛋白质集合》中找到,作者为Bowen Jing、Bonnie Berger和Tommi Jaakkola。该存储库包含运行该方法所需的所有代码、说明和模型权重。如果您有任何问题,请随时提出issue或通过bjing@mit.edu联系我们。
2024年6月更新: 我们训练了一个12层版本的AlphaFlow-MD+Templates(基础版和蒸馏版),其运行速度比48层版本快2.5倍,但性能略有损失。如果有参考结构(PDB或AlphaFold)可用且运行时间是高优先级,我们建议考虑使用这个模型。
在Python 3.9环境中(例如,conda create -n [名称] python=3.9
),运行:
pip install numpy==1.21.2 pandas==1.5.3
pip install torch==1.12.1+cu113 -f https://download.pytorch.org/whl/torch_stable.html
pip install biopython==1.79 dm-tree==0.1.6 modelcif==0.7 ml-collections==0.1.0 scipy==1.7.1 absl-py einops
pip install pytorch_lightning==2.0.4 fair-esm mdtraj wandb
pip install 'openfold @ git+https://github.com/aqlaboratory/openfold.git@103d037'
我们在CUDA 11.6的机器上进行了安装,并在A100和A6000 GPU上进行了测试。(有关如何在Conda中安装特定CUDA版本的说明,请参见此链接。)
我们提供了几个版本的AlphaFlow(以及类似命名的ESMFlow版本)。
对于所有模型,蒸馏版本运行速度显著更快,但会牺牲一些准确性(在论文中进行了基准测试)。
对于AlphaFlow-MD+Templates,12l版本具有12个而不是48个Evoformer层,运行速度快2.5倍,但性能略有损失。
模型 | 版本 | 权重 |
---|---|---|
AlphaFlow-PDB | 基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_pdb_base_202402.pt |
AlphaFlow-PDB | 蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_pdb_distilled_202402.pt |
AlphaFlow-MD | 基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_base_202402.pt |
AlphaFlow-MD | 蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_distilled_202402.pt |
AlphaFlow-MD+Templates | 基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_templates_base_202402.pt |
AlphaFlow-MD+Templates | 蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_templates_distilled_202402.pt |
AlphaFlow-MD+Templates | 12l-基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_12l_md_templates_base_202406.pt |
AlphaFlow-MD+Templates | 12l-蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_12l_md_templates_distilled_202406.pt |
训练检查点(可从中恢复微调)可根据要求提供;如果您想合作,请联系我们!
name
和seqres
条目的输入CSV文件。参见splits/atlas_test.csv
获取示例。.a3m
格式的比对放置在以下路径:{alignment_dir}/{name}/a3m/{name}.a3m
。如果您没有MSA,有两种方法可以生成它们:
python -m scripts.mmseqs_query --split [路径] --outdir [目录]
查询ColabFold服务器。使用AlphaFlow运行推理的基本命令是:
python predict.py --mode alphafold --input_csv [路径] --msa_dir [目录] --weights [路径] --samples [N] --outpdb [目录]
如果运行PDB模型,我们建议附加--self_cond --resample
以提高性能。
使用ESMFlow运行推理的基本命令是:
python predict.py --mode esmfold --input_csv [路径] --weights [路径] --samples [N] --outpdb [目录]
任一模型的其他命令行参数:
--pdb_id
参数选择CSV中的一行或多行。如果未指定参数,将对所有行进行推理。--templates_dir [目录]
。--noisy_first --no_diffusion
。--tmax 0.2 --steps 2
。默认推理设置对应于--tmax 1.0 --steps 10
。有关更多详细信息,请参见论文附录B.1。我们的集合评估可以通过以下步骤重现:
bash scripts/download_atlas.sh
下载ATLAS数据集python -m scripts.analyze_ensembles --atlas_dir [目录] --pdb_dir [目录] --num_workers [N]
。这将在pdb_dir
中生成一个名为out.pkl
的分析文件。python -m scripts.print_analysis [路径] [路径] ...
,其中包含任意数量的out.pkl
文件路径。将打印格式化的比较表。要下载和预处理PDB,
aws s3 sync --no-sign-request s3://pdbsnapshots/20230102/pub/pdb/data/structures/divided/mmCIF pdb_mmcif
。find pdb_mmcif -name '*.gz' | xargs gunzip
以提取MMCIF文件。python -m scripts.unpack_mmcif --mmcif_dir [目录] --outdir [目录] --num_workers [N]
。这将预处理所有链为NPZ文件并创建一个pdb_mmcif.csv
索引。aws s3 sync --no-sign-request s3://openfold/ openfold
下载OpenProteinSet。python -m scripts.add_msa_info --openfold_dir [目录]
以生成带有OpenProteinSet MSA查找的pdb_mmcif_msa.csv
索引。python -m scripts.cluster_chains
以生成40%序列相似性的pdb_clusters
文件(需要Mmseqs安装)。splits/cameo2022.csv
)创建MSA。要下载和预处理ATLAS MD轨迹数据集,
bash scripts/download_atlas.sh
。python -m scripts.prep_atlas --atlas_dir [目录] --outdir [目录] --num_workers [N]
。这将预处理ATLAS轨迹为NPZ文件。splits/atlas.csv
中的所有条目创建MSA。在运行训练之前,通过以下命令将预训练的AlphaFold和ESMFold权重下载到存储库根目录:
wget https://storage.googleapis.com/alphafold/alphafold_params_2022-12-06.tar
tar -xvf alphafold_params_2022-12-06.tar params_model_1.npz
wget https://dl.fbaipublicfiles.com/fair-esm/models/esmfold_3B_v1.pt
AlphaFlow的基本训练命令是:
python train.py --lr 5e-4 --noise_prob 0.8 --accumulate_grad 8 --train_epoch_len 80000 --train_cutoff 2018-05-01 --filter_chains \
--train_data_dir [目录] \
--train_msa_dir [目录] \
--mmcif_dir [目录] \
--val_msa_dir [目录] \
--run_name [名称] [--wandb]
其中需要指定PDB NPZ目录、OpenProteinSet目录、PDB mmCIF目录和验证MSA目录。这个训练运行会产生AlphaFlow-PDB基础版本。所有其他模型都是基于这个检查点构建的。
要继续在ATLAS上训练,运行:
python train.py --normal_validate --sample_train_confs --sample_val_confs --num_val_confs 100 --pdb_chains splits/atlas_train.csv --val_csv splits/atlas_val.csv --self_cond_prob 0.0 --noise_prob 0.9 --val_freq 10 --ckpt_freq 10 \
--train_data_dir [目录] \
--train_msa_dir [目录] \
--ckpt [路径] \
--run_name [名称] [--wandb]
其中需要指定ATLAS MSA和NPZ目录以及AlphaFlow-PDB检查点。
如果要在ATLAS上使用模板进行训练,添加以下额外参数运行:--first_as_template --extra_input --lr 1e-4 --restore_weights_only --extra_input_prob 1.0
。
蒸馏:要蒸馏模型,附加--distillation
并提供 要蒸馏的模型的--ckpt [路径]
。对于PDB训练,我们移除--accumulate_grad 8
,并建议使用更短的--train_epoch_len 16000
进行蒸馏。注意,--self_cond_prob
和--noise_prob
将被忽略,可以省略。
ESMFlow:使用相同的命令运行,但加上--mode esmfold
和--train_cutoff 2020-05-01
。
我们提供了从模型中采样的集成,这些集成用于论文中报告的分析和结果。
模型 | 版本 | 样本 |
---|---|---|
AlphaFlow-PDB | 基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_pdb_base_202402.zip |
AlphaFlow-PDB | 蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_pdb_distilled_202402.zip |
AlphaFlow-MD | 基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_base_202402.zip |
AlphaFlow-MD | 蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_distilled_202402.zip |
AlphaFlow-MD+Templates | 基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_templates_base_202402.zip |
AlphaFlow-MD+Templates | 蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_templates_distilled_202402.zip |
AlphaFlow-MD+Templates | 12l-基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_12l_md_templates_base_202406.zip |
AlphaFlow-MD+Templates | 12l-蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_12l_md_templates_distilled_202406.zip |
MIT。其他许可证可能适用于文件头中注明的第三方源代码。
@misc{jing2024alphafold,
title={AlphaFold Meets Flow Matching for Generating Protein Ensembles},
author={Bowen Jing and Bonnie Berger and Tommi Jaakkola},
year={2024},
eprint={2402.04845},
archivePrefix={arXiv},
primaryClass={q-bio.BM}
}
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号