<img src="https://yellow-cdn.veclightyear.com/0a4dffa0/862eef2d-adb8-46bb-ad57-2e2f68b1f7ca.png" width="450px"></img>
这是一个独立的库,用于在Pytorch中为Transformer添加<a href="https://arxiv.org/abs/2104.09864">旋转嵌入</a>,这种方法作为<a href="https://blog.eleuther.ai/rotary-embeddings/">相对位置编码</a>已取得成功。具体来说,它将使得在张量的任何轴上旋转信息变得简单高效,无论是固定位置还是学习得到的。这个库将以很小的代价为你提供最先进的位置嵌入结果。
我的直觉告诉我,在人工神经网络中还有更多关于旋转的<a href="https://www.nature.com/articles/s41593-021-00821-9">特性</a>可以被利用。
$ pip install rotary-embedding-torch
import torch from rotary_embedding_torch import RotaryEmbedding # 在你的Transformer中实例化位置嵌入,并传递给所有注意力层 rotary_emb = RotaryEmbedding(dim = 32) # 模拟查询和键 - 维度应以(序列长度,特征 维度)结尾,前面可以有任意数量的维度(批次、头部等) q = torch.randn(1, 8, 1024, 64) # 查询 - (批次,头部,序列长度,头部维度) k = torch.randn(1, 8, 1024, 64) # 键 # 在头部分离之后,但在点积和后续softmax(注意力)之前,对查询和键应用旋转 q = rotary_emb.rotate_queries_or_keys(q) k = rotary_emb.rotate_queries_or_keys(k) # 然后像往常一样用你的查询(q)和键(k)进行注意力计算
如果你正确地执行了上述所有步骤,在训练过程中应该会看到显著的改善。
在处理推理时的键/值缓存时,查询位置需要用key_value_seq_length - query_seq_length进行偏移。
为了简化这个过程,可以使用rotate_queries_with_cached_keys方法
q = torch.randn(1, 8, 1, 64) # 每次只有一个查询 k = torch.randn(1, 8, 1024, 64) # 连接了缓存的键/值 q, k = rotary_emb.rotate_queries_with_cached_keys(q, k)
你也可以手动这样做
q = rotary_emb.rotate_queries_or_keys(q, offset = k.shape[-2] - q.shape[-2])
用于简化n维轴向相对位置嵌入的使用,例如视频Transformer
import torch from rotary_embedding_torch import ( RotaryEmbedding, apply_rotary_emb ) pos_emb = RotaryEmbedding( dim = 16, freqs_for = 'pixel', max_freq = 256 ) # 用于旋转频率的查询和键 # 假设是一个有8帧的视频,图像为矩形(特征维度在最后) q = torch.randn(1, 8, 64, 32, 64) k = torch.randn(1, 8, 64, 32, 64) # 获取轴向频率 - (8, 64, 32, 16 * 3 = 48) # 将自动进行部分旋转 freqs = pos_emb.get_axial_freqs(8, 64, 32) # 旋转频率 q = apply_rotary_emb(freqs, q) k = apply_rotary_emb(freqs, k)
在<a href="https://arxiv.org/abs/2212.10554v1">这篇论文</a>中,他们通过给旋转嵌入一个类似于ALiBi的衰减,成功解决了长度外推问题。他们将这种技术命名为XPos,你可以在初始化时设置use_xpos = True来使用它。
这只能用于自回归Transformer
import torch from rotary_embedding_torch import RotaryEmbedding # 在你的Transformer中实例化位置嵌入,并传递给所有注意力层 rotary_emb = RotaryEmbedding( dim = 32, use_xpos = True # 将此设置为True可使旋转嵌入更好地外推到超过训练时使用的序列长度 ) # 模拟查询和键 - 维度应以(序列长度, 特征维度)结尾,并可有任意数量的前置维度(批次, 头部等) q = torch.randn(1, 8, 1024, 64) # 查询 - (批次, 头部数, 序列长度, 头部维度) k = torch.randn(1, 8, 1024, 64) # 键 # 在头部拆分后但点积和后续softmax(注意力)之前,对查询和键应用旋转 # 不使用`rotate_queries_or_keys`,而是使用`rotate_queries_and_keys`,其余部分会 自动处理 q, k = rotary_emb.rotate_queries_and_keys(q, k) ## 序列位置插值 这篇MetaAI论文提出,只需对序列位置的插值进行微调,就可以将预训练模型扩展到更长的上下文长度。他们表明,这比仅仅在相同序列位置上进行微调但进一步扩展的效果要好得多。 你可以通过在初始化时将`interpolate_factor`设置为大于`1.`的值来使用此功能(例如,如果预训练模型在2048上训练,设置`interpolate_factor = 2.`将允许微调到`2048 x 2. = 4096`) 更新:社区中有人报告称效果不佳。如果您看到正面或负面结果,请发邮件告诉我 import torch from rotary_embedding_torch import RotaryEmbedding rotary_emb = RotaryEmbedding( dim = 32, interpolate_factor = 2. # 在预训练模型中添加这行代码并微调约1000步,如论文所示 ) ## 引用 (保留原文引用内容)


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号