Cascades是谷歌研究团队开发的Python库,旨在实现语言模型的复杂组合,如草稿、思维链、工具使用和选择推理等。本文深入探讨了Cascades的功能、应用场景及其在人工智能领域的重要意义。
本文深入探讨了LLMs-Finetuning-Safety项目的研究成果,揭示了大型语言模型在微调过程中可能面临的安全风险,并探讨了潜在的缓解策略,为AI安全研究提供了新的思路。
JailbreakBench是一个开源的大型语言模型越狱鲁棒性基准测试平台,旨在全面跟踪生成成功越狱和防御这些越狱的进展。它提供了一个包含200种良性和滥用行为的数据集、官方排行榜以及提交的越狱字符串存储库,为研究人员提供了一个稳定的方式来比较未来算法的性能。
BIG-bench是一个协作性的基准测试,旨在探测大型语言模型的能力并推断它们的未来潜力。它包含200多个多样化的任务,涵盖语言学、常识推理、数学等多个领域,为评估和改进语言模型提供了重要参考。
TransformerLens是一个专为机制可解释性而设计的开源库,旨在帮助研究者探索和理解GPT风格语言模型的内部工作原理。本文将介绍TransformerLens的主要功能、应用场景以及它在机制可解释性研究中的重要作用。
SparseGPT是一种新的模型 剪枝方法,可以在一次剪枝操作中将大规模语言模型剪枝至少50%,且几乎不损失精度。这一突破性技术有望大幅降低大型语言模型的推理成本。
PyReFT是一个创新的表征微调(ReFT)库,支持通过可训练的干预来调整语言模型的内部表征。与现有的参数高效微调方法相比,PyReFT可以以更少的参数实现更强大的性能,同时提高微调的效率和可解释性。本文将详细介绍PyReFT的特点、使用 方法及其在语言模型微调中的应用。
本文全面介绍了数据选择在语言模型训练过程中的重要性、常用技术和最新进展,涵盖了预训练、指令微调、偏好对齐等多个阶段的数据选择方法,为从事语言模型研究和开发的读者提供了系统的参考。
Guidance是一种创新的编程语言,旨在精确控制和引导大型语言模型的输出。本文将深入探讨Guidance的特性、应用场景及其在人工智能领域的重要意义。
本文介绍了一种名为推理时干预(ITI)的新技术,旨在提高大型语言模型的诚实度。该方法通过在推理过程中调整模型激活来实现,显著提升了LLaMA模型在TruthfulQA基准测试上的表现。
REST是一种基于检索的推测解码方法,旨在提高大型语言模型的生成速度。它不依赖草稿语言模型,而是利用数据存储来检索和使用草稿标记,无需额外训练即可加速任何现有语言模型。
Video-LLaMA是一个创新的多模态框架,赋予大型语言模型理解视频和音频内容的能力。它通过预训练的视觉和音频编码器以及冻结的大型语言模型,实现了跨模态训练,能够捕捉视频场景的时间变化并整合音视频信号,为视频理解开辟了新的可能性。
本文深入探讨了针对大型语言模型(LLM)的普遍性和可转移对抗攻击,介绍了最新的LLM攻击研究成果,分析了攻击原理和防御对策,为LLM安全提供了重要参考。
StreamingLLM是一种创新的框架,能够让预训练的大语言模型处理无限长度的输入,而不损失效率和性能。本文将深入介绍StreamingLLM的原理、优势及应用前景。
InfiniteBench是一个创新的基准测试,旨在评估大型语言模型处理、理解和推理超长上下文(100k+令牌)的能力。这个基准测试包含12个独特的任务,涵盖了多个领域,为语言模型的长上下文处理能力提供了全面的评估。
微软研究院提出的LongMem框架,为大语言模型赋予了长期记忆能力,可以处理无限长度的上下文,同时降低GPU内存使用并提高推理速度。本文深入介绍LongMem的原理、实现和应用。