ngram

ngram

N元语言模型实践:机器学习基础与自然语言处理入门

ngram项目是一个构建N元语言模型的开源工具,通过实践演示机器学习和自然语言处理的基础概念。项目使用32,032个名字作为数据集,实现字符级语言模型,涵盖训练、评估、数据分割等核心环节。提供Python和C语言双版本实现,便于深入理解N元模型原理及性能比较。适合入门者学习自回归语言建模和机器学习基础知识。

n-gram语言模型机器学习自回归tokenizationGithub开源项目

n元语法

在这个模块中,我们构建n元语法语言模型。在此过程中,我们学习了机器学习的许多基础知识(训练、评估、数据分割、超参数、过拟合)以及自回归语言建模的基础知识(分词、下一个词预测、困惑度、采样)。GPT其实"只是"一个非常大的n元语法模型。唯一的区别是GPT使用神经网络来计算下一个词的概率,而n元语法使用简单的基于计数的方法。

我们的数据集来自ssa.gov,包含2018年的32,032个名字,这些名字被分为1,000个测试集、1,000个验证集,其余的作为训练集,全部存放在data/文件夹中。因此,我们的n元语法模型本质上是试图学习这些名字中字符的统计规律,然后通过从模型中采样来生成新的名字。

这个模块的一个很好的参考是Jurafsky和Martin所著《语音和语言处理》的第3章

目前,最好的"从头构建此仓库"的参考是YouTube视频"The spelled-out intro to language modeling: building makemore",尽管一些细节略有变化。主要的不同之处在于,该视频介绍了二元语法语言模型,而对我们来说,这只是n元语法中n = 2的特殊情况。

Python版本

要运行Python代码,请确保已安装numpy(例如,pip install numpy),然后运行脚本:

python ngram.py

你会看到脚本首先"训练"了一个小型的字符级分词器(词汇表大小为27,包括26个小写英文字母和换行符),然后它对不同的超参数设置进行了一个小型网格搜索,包括n元语法顺序n和平滑因子,使用验证集进行评估。在我们的数据上使用默认设置时,最优值为n=4, smoothing=0.1。然后它采用这个最佳模型,从中采样200个字符,最后报告测试损失和困惑度。以下是完整的输出,应该只需要几秒钟就能生成:

python ngram.py
seq_len 3 | smoothing 0.03 | train_loss 2.1843 | val_loss 2.2443
seq_len 3 | smoothing 0.10 | train_loss 2.1870 | val_loss 2.2401
seq_len 3 | smoothing 0.30 | train_loss 2.1935 | val_loss 2.2404
seq_len 3 | smoothing 1.00 | train_loss 2.2117 | val_loss 2.2521
seq_len 4 | smoothing 0.03 | train_loss 1.8703 | val_loss 2.1376
seq_len 4 | smoothing 0.10 | train_loss 1.9028 | val_loss 2.1118
seq_len 4 | smoothing 0.30 | train_loss 1.9677 | val_loss 2.1269
seq_len 4 | smoothing 1.00 | train_loss 2.1006 | val_loss 2.2114
seq_len 5 | smoothing 0.03 | train_loss 1.4955 | val_loss 2.3540
seq_len 5 | smoothing 0.10 | train_loss 1.6335 | val_loss 2.2814
seq_len 5 | smoothing 0.30 | train_loss 1.8610 | val_loss 2.3210
seq_len 5 | smoothing 1.00 | train_loss 2.2132 | val_loss 2.4903
best hyperparameters: {'seq_len': 4, 'smoothing': 0.1}
felton
jasiel
chaseth
nebjnvfobzadon
brittan
shir
esczsvn
freyanty
aubren
... (截断) ...
test_loss 2.106370, test_perplexity 8.218358
wrote dev/ngram_probs.npy to disk (for visualization)

如你所见,4元语法模型生成了一些相对合理的名字,如"felton"和"jasiel",但也有一些奇怪的名字,如"nebjnvfobzadon",但你不能对一个小型的4元字符级语言模型期望太多。最后,报告的测试困惑度约为8.2,这意味着模型对测试集中的每个字符的困惑程度相当于从8.2个等概率的字符中随机选择。

Python代码还将n元语法概率写入dev/文件夹中的磁盘,你可以使用附带的Jupyter笔记本dev/visualize_probs.ipynb来检查这些概率。

C版本

C模型在功能上是相同的,但跳过了交叉验证。相反,它硬编码了n=4, smoothing=0.01,但进行了训练、采样和测试困惑度评估,并获得了与Python版本完全相同的结果。编译和运行C代码的示例如下:

clang -O3 -o ngram ngram.c -lm ./ngram

C版本运行速度当然更快。你会看到相同的样本和测试困惑度。

待办事项

  • 改进
  • 制作练习
  • 寻求帮助:制作一个良好的可视化/网页应用,展示并动画演示4元语法语言模型及其工作原理。

编辑推荐精选

QoderWork

QoderWork

阿里Qoder团队推出的桌面端AI智能体

QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。

音述AI

音述AI

全球首个AI音乐社区

音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。

lynote.ai

lynote.ai

一站式搞定所有学习需求

不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。

AniShort

AniShort

为AI短剧协作而生

专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。

seedancetwo2.0

seedancetwo2.0

能听懂你表达的视频模型

Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。

nano-banana纳米香蕉中文站

nano-banana纳米香蕉中文站

国内直接访问,限时3折

输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

下拉加载更多