ngram

ngram

N元语言模型实践:机器学习基础与自然语言处理入门

ngram项目是一个构建N元语言模型的开源工具,通过实践演示机器学习和自然语言处理的基础概念。项目使用32,032个名字作为数据集,实现字符级语言模型,涵盖训练、评估、数据分割等核心环节。提供Python和C语言双版本实现,便于深入理解N元模型原理及性能比较。适合入门者学习自回归语言建模和机器学习基础知识。

n-gram语言模型机器学习自回归tokenizationGithub开源项目

n元语法

在这个模块中,我们构建n元语法语言模型。在此过程中,我们学习了机器学习的许多基础知识(训练、评估、数据分割、超参数、过拟合)以及自回归语言建模的基础知识(分词、下一个词预测、困惑度、采样)。GPT其实"只是"一个非常大的n元语法模型。唯一的区别是GPT使用神经网络来计算下一个词的概率,而n元语法使用简单的基于计数的方法。

我们的数据集来自ssa.gov,包含2018年的32,032个名字,这些名字被分为1,000个测试集、1,000个验证集,其余的作为训练集,全部存放在data/文件夹中。因此,我们的n元语法模型本质上是试图学习这些名字中字符的统计规律,然后通过从模型中采样来生成新的名字。

这个模块的一个很好的参考是Jurafsky和Martin所著《语音和语言处理》的第3章

目前,最好的"从头构建此仓库"的参考是YouTube视频"The spelled-out intro to language modeling: building makemore",尽管一些细节略有变化。主要的不同之处在于,该视频介绍了二元语法语言模型,而对我们来说,这只是n元语法中n = 2的特殊情况。

Python版本

要运行Python代码,请确保已安装numpy(例如,pip install numpy),然后运行脚本:

python ngram.py

你会看到脚本首先"训练"了一个小型的字符级分词器(词汇表大小为27,包括26个小写英文字母和换行符),然后它对不同的超参数设置进行了一个小型网格搜索,包括n元语法顺序n和平滑因子,使用验证集进行评估。在我们的数据上使用默认设置时,最优值为n=4, smoothing=0.1。然后它采用这个最佳模型,从中采样200个字符,最后报告测试损失和困惑度。以下是完整的输出,应该只需要几秒钟就能生成:

python ngram.py
seq_len 3 | smoothing 0.03 | train_loss 2.1843 | val_loss 2.2443
seq_len 3 | smoothing 0.10 | train_loss 2.1870 | val_loss 2.2401
seq_len 3 | smoothing 0.30 | train_loss 2.1935 | val_loss 2.2404
seq_len 3 | smoothing 1.00 | train_loss 2.2117 | val_loss 2.2521
seq_len 4 | smoothing 0.03 | train_loss 1.8703 | val_loss 2.1376
seq_len 4 | smoothing 0.10 | train_loss 1.9028 | val_loss 2.1118
seq_len 4 | smoothing 0.30 | train_loss 1.9677 | val_loss 2.1269
seq_len 4 | smoothing 1.00 | train_loss 2.1006 | val_loss 2.2114
seq_len 5 | smoothing 0.03 | train_loss 1.4955 | val_loss 2.3540
seq_len 5 | smoothing 0.10 | train_loss 1.6335 | val_loss 2.2814
seq_len 5 | smoothing 0.30 | train_loss 1.8610 | val_loss 2.3210
seq_len 5 | smoothing 1.00 | train_loss 2.2132 | val_loss 2.4903
best hyperparameters: {'seq_len': 4, 'smoothing': 0.1}
felton
jasiel
chaseth
nebjnvfobzadon
brittan
shir
esczsvn
freyanty
aubren
... (截断) ...
test_loss 2.106370, test_perplexity 8.218358
wrote dev/ngram_probs.npy to disk (for visualization)

如你所见,4元语法模型生成了一些相对合理的名字,如"felton"和"jasiel",但也有一些奇怪的名字,如"nebjnvfobzadon",但你不能对一个小型的4元字符级语言模型期望太多。最后,报告的测试困惑度约为8.2,这意味着模型对测试集中的每个字符的困惑程度相当于从8.2个等概率的字符中随机选择。

Python代码还将n元语法概率写入dev/文件夹中的磁盘,你可以使用附带的Jupyter笔记本dev/visualize_probs.ipynb来检查这些概率。

C版本

C模型在功能上是相同的,但跳过了交叉验证。相反,它硬编码了n=4, smoothing=0.01,但进行了训练、采样和测试困惑度评估,并获得了与Python版本完全相同的结果。编译和运行C代码的示例如下:

clang -O3 -o ngram ngram.c -lm ./ngram

C版本运行速度当然更快。你会看到相同的样本和测试困惑度。

待办事项

  • 改进
  • 制作练习
  • 寻求帮助:制作一个良好的可视化/网页应用,展示并动画演示4元语法语言模型及其工作原理。

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

热门AI工具AI办公办公工具智能排版AI生成PPT博思AIPPT海量精品模板AI创作
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多