AlphaFlow是AlphaFold的一个修改版本,通过流匹配目标进行了微调,旨在对蛋白质构象集合进行生成建模。具体来说,AlphaFlow旨在模拟:
我们还提供了一个类似微调的ESMFold版本,称为ESMFlow。技术细节和全面的基准测试结果可以在我们的论文《AlphaFold遇上流匹配:生成蛋白质集合》中找到,作者为Bowen Jing、Bonnie Berger和Tommi Jaakkola。该存储库包含运行该方法所需的所有代码、说明和模型权重。如果您有任何问题,请随时提出issue或通过bjing@mit.edu联系我们。
2024年6月更新: 我们训练了一个12层版本的AlphaFlow-MD+Templates(基础版和蒸馏版),其运行速度比48层版本快2.5倍,但性能略有损失。如果有参考结构(PDB或AlphaFold)可用且运行时间是高优先级,我们建议考虑使用这个模型。
在Python 3.9环境中(例如,conda create -n [名称] python=3.9),运行:
pip install numpy==1.21.2 pandas==1.5.3
pip install torch==1.12.1+cu113 -f https://download.pytorch.org/whl/torch_stable.html
pip install biopython==1.79 dm-tree==0.1.6 modelcif==0.7 ml-collections==0.1.0 scipy==1.7.1 absl-py einops
pip install pytorch_lightning==2.0.4 fair-esm mdtraj wandb
pip install 'openfold @ git+https://github.com/aqlaboratory/openfold.git@103d037'
我们在CUDA 11.6的机器上进行了安装,并在A100和A6000 GPU上进行了测试。(有关如何在Conda中安装特定CUDA版本的说明,请参见此链接。)
我们提供了几个版本的AlphaFlow(以及类似命名的ESMFlow版本)。
对于所有模型,蒸馏版本运行速度显著更快,但会牺牲一些准确性(在论文中进行了基准测试)。
对于AlphaFlow-MD+Templates,12l版本具有12个而不是48个Evoformer层,运行速度快2.5倍,但性能略有损失。
| 模型 | 版本 | 权重 |
|---|---|---|
| AlphaFlow-PDB | 基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_pdb_base_202402.pt |
| AlphaFlow-PDB | 蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_pdb_distilled_202402.pt |
| AlphaFlow-MD | 基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_base_202402.pt |
| AlphaFlow-MD | 蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_distilled_202402.pt |
| AlphaFlow-MD+Templates | 基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_templates_base_202402.pt |
| AlphaFlow-MD+Templates | 蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_md_templates_distilled_202402.pt |
| AlphaFlow-MD+Templates | 12l-基础 | https://alphaflow.s3.amazonaws.com/params/alphaflow_12l_md_templates_base_202406.pt |
| AlphaFlow-MD+Templates | 12l-蒸馏 | https://alphaflow.s3.amazonaws.com/params/alphaflow_12l_md_templates_distilled_202406.pt |
训练检查点(可从中恢复微调)可根据要求提供;如果您想合作,请联系我们!
name和seqres条目的输入CSV文件。参见splits/atlas_test.csv获取示例。.a3m格式的比对放置在以下路径:{alignment_dir}/{name}/a3m/{name}.a3m。如果您没有MSA,有两种方法可以生成它们:
python -m scripts.mmseqs_query --split [路径] --outdir [目录]查询ColabFold服务器。使用AlphaFlow运行推理的基本命令是:
python predict.py --mode alphafold --input_csv [路径] --msa_dir [目录] --weights [路径] --samples [N] --outpdb [目录]
如果运行PDB模型,我们建议附加--self_cond --resample以提高性能。
使用ESMFlow运行推理的基本命令是:
python predict.py --mode esmfold --input_csv [路径] --weights [路径] --samples [N] --outpdb [目录]
任一模型的其他命令行参数:
--pdb_id参数选择CSV中的一行或多行。如果未指定参数,将对所有行进行推理。--templates_dir [目录]。--noisy_first --no_diffusion。--tmax 0.2 --steps 2。默认推理设置对应于--tmax 1.0 --steps 10。有关更多详细信息,请参见论文附录B.1。我们的集合评估可以通过以下步骤重现:
bash scripts/download_atlas.sh下载ATLAS数据集python -m scripts.analyze_ensembles --atlas_dir [目录] --pdb_dir [目录] --num_workers [N]。这将在pdb_dir中生成一个名为out.pkl的分析文件。python -m scripts.print_analysis [路径] [路径] ...,其中包含任意数量的out.pkl文件路径。将打印格式化的比较表。要下载和预处理PDB,
aws s3 sync --no-sign-request s3://pdbsnapshots/20230102/pub/pdb/data/structures/divided/mmCIF pdb_mmcif。find pdb_mmcif -name '*.gz' | xargs gunzip以提取MMCIF文件。python -m scripts.unpack_mmcif --mmcif_dir [目录] --outdir [目录] --num_workers [N]。这将预处理所有链为NPZ文件并创建一个pdb_mmcif.csv索引。aws s3 sync --no-sign-request s3://openfold/ openfold下载OpenProteinSet。python -m scripts.add_msa_info --openfold_dir [目录]以生成带有OpenProteinSet MSA查找的pdb_mmcif_msa.csv索引。python -m scripts.cluster_chains以生成40%序列相似性的pdb_clusters文件(需要Mmseqs安装)。splits/cameo2022.csv)创建MSA。要下载和预处理ATLAS MD轨迹数据集,
bash scripts/download_atlas.sh。python -m scripts.prep_atlas --atlas_dir [目录] --outdir [目录] --num_workers [N]。这将预处理ATLAS轨迹为NPZ文件。splits/atlas.csv中的所有条目创建MSA。在运行训练之前,通过以下命令将预训练的AlphaFold和ESMFold权重下载到存储库根目录:
wget https://storage.googleapis.com/alphafold/alphafold_params_2022-12-06.tar
tar -xvf alphafold_params_2022-12-06.tar params_model_1.npz
wget https://dl.fbaipublicfiles.com/fair-esm/models/esmfold_3B_v1.pt
AlphaFlow的基本训练命令是:
python train.py --lr 5e-4 --noise_prob 0.8 --accumulate_grad 8 --train_epoch_len 80000 --train_cutoff 2018-05-01 --filter_chains \
--train_data_dir [目录] \
--train_msa_dir [目录] \
--mmcif_dir [目录] \
--val_msa_dir [目录] \
--run_name [名称] [--wandb]
其中需要指定PDB NPZ目录、OpenProteinSet目录、PDB mmCIF目录和验证MSA目录。这个训练运行会产生AlphaFlow-PDB基础版本。所有其他模型都是基于这个检查点构建的。
要继续在ATLAS上训练,运行:
python train.py --normal_validate --sample_train_confs --sample_val_confs --num_val_confs 100 --pdb_chains splits/atlas_train.csv --val_csv splits/atlas_val.csv --self_cond_prob 0.0 --noise_prob 0.9 --val_freq 10 --ckpt_freq 10 \
--train_data_dir [目录] \
--train_msa_dir [目录] \
--ckpt [路径] \
--run_name [名称] [--wandb]
其中需要指定ATLAS MSA和NPZ目录以及AlphaFlow-PDB检查点。
如果要在ATLAS上使用模板进行训练,添加以下额外参数运行:--first_as_template --extra_input --lr 1e-4 --restore_weights_only --extra_input_prob 1.0。
蒸馏:要蒸馏模型,附加--distillation并提供 要蒸馏的模型的--ckpt [路径]。对于PDB训练,我们移除--accumulate_grad 8,并建议使用更短的--train_epoch_len 16000进行蒸馏。注意,--self_cond_prob和--noise_prob将被忽略,可以省略。
ESMFlow:使用相同的命令运行,但加上--mode esmfold和--train_cutoff 2020-05-01。
我们提供了从模型中采样的集成,这些集成用于论文中报告的分析和结果。
| 模型 | 版本 | 样本 |
|---|---|---|
| AlphaFlow-PDB | 基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_pdb_base_202402.zip |
| AlphaFlow-PDB | 蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_pdb_distilled_202402.zip |
| AlphaFlow-MD | 基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_base_202402.zip |
| AlphaFlow-MD | 蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_distilled_202402.zip |
| AlphaFlow-MD+Templates | 基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_templates_base_202402.zip |
| AlphaFlow-MD+Templates | 蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_md_templates_distilled_202402.zip |
| AlphaFlow-MD+Templates | 12l-基础 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_12l_md_templates_base_202406.zip |
| AlphaFlow-MD+Templates | 12l-蒸馏 | https://alphaflow.s3.amazonaws.com/samples/alphaflow_12l_md_templates_distilled_202406.zip |
MIT。其他许可证可能适用于文件头中注明的第三方源代码。
@misc{jing2024alphafold,
title={AlphaFold Meets Flow Matching for Generating Protein Ensembles},
author={Bowen Jing and Bonnie Berger and Tommi Jaakkola},
year={2024},
eprint={2402.04845},
archivePrefix={arXiv},
primaryClass={q-bio.BM}
}


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号