深入探索自然语言处理:plm-nlp-code项目解析

Ray

plm-nlp-code

引言

在自然语言处理(NLP)领域,预训练模型的应用已成为一种主流趋势。为了帮助研究者和学习者更好地理解和实践这一方法,哈尔滨工业大学社会计算与信息检索研究中心(HIT-SCIR)推出了plm-nlp-code项目。本文将深入探讨这个项目的内容、结构和价值。

项目概览

plm-nlp-code是一个GitHub开源项目,主要用于存放《自然语言处理:基于预训练模型的方法》一书的示例代码。该书由车万翔、郭江和崔一鸣共同编著,是NLP领域的重要参考资料。

项目主页截图

项目地址:https://github.com/HIT-SCIR/plm-nlp-code

截至目前,该项目已获得617颗星标和194次分支,显示了其在NLP社区中的受欢迎程度和影响力。

项目结构

plm-nlp-code项目的结构清晰明了,主要包含以下几个部分:

  1. 章节代码:从chp2到chp8,每个章节都有对应的代码文件夹。
  2. slides:包含相关的幻灯片资料。
  3. README.md:项目的主要说明文档。
  4. LICENSE:Apache-2.0开源许可证。

这种结构设计使得读者可以轻松地根据书中章节查找和学习相应的代码实现。

代码环境

为了确保代码的顺利运行,项目明确列出了测试环境:

  • Python: 3.8.5
  • PyTorch: 1.8.0
  • Transformers: 4.9.0
  • NLTK: 3.5
  • LTP: 4.0

这些版本信息对于复现实验结果和深入学习非常重要。

主要内容及亮点

1. 词的分布式表示

在第2章中,项目提供了词的分布式表示相关代码。值得注意的是,readme中特别指出了pmi计算函数中的一处勘误,展现了项目维护者对代码质量的重视。

expected = np.outer(row_totals, col_totals) / total # 获得每个元素的分母

2. 数据预处理

第3章的代码主要涉及数据预处理,包括繁体到简体的转换(convert_t2s.py)和维基数据的清洗(wikidata_cleaning.py)。这些工具对于中文NLP任务的数据准备工作极为有用。

3. 词汇表构建

第4章介绍了词汇表(Vocab)的构建方法。项目中提供了修正后的Vocab类实现,包括__init__和build方法:

class Vocab:
    def __init__(self, tokens=None):
        self.idx_to_token = list()
        self.token_to_idx = dict()

        if tokens is not None:
            if "<unk>" not in tokens:
                tokens = tokens + ["<unk>"]
            for token in tokens:
                self.idx_to_token.append(token)
                self.token_to_idx[token] = len(self.idx_to_token) - 1
            self.unk = self.token_to_idx['<unk>']

    @classmethod
    def build(cls, text, min_freq=1, reserved_tokens=None):
        token_freqs = defaultdict(int)
        for sentence in text:
            for token in sentence:
                token_freqs[token] += 1
        uniq_tokens = ["<unk>"] + (reserved_tokens if reserved_tokens else [])
        uniq_tokens += [token for token, freq in token_freqs.items() 
                        if freq >= min_freq and token != "<unk>"]
        return cls(uniq_tokens)

这个实现考虑了未知词()的处理,以及基于词频的词汇表构建,体现了实际应用中的考量。

4. 神经网络模型

项目在第4章还提供了基于EmbeddingBag的MLP模型实现:

class MLP(nn.Module):
    def __init__(self, vocab_size, embedding_dim, hidden_dim, num_class):
        super(MLP, self).__init__()
        self.embedding = nn.EmbeddingBag(vocab_size, embedding_dim)
        self.linear1 = nn.Linear(embedding_dim, hidden_dim)
        self.activate = F.relu
        self.linear2 = nn.Linear(hidden_dim, num_class)

    def forward(self, inputs, offsets):
        embedding = self.embedding(inputs, offsets)
        hidden = self.activate(self.linear1(embedding))
        outputs = self.linear2(hidden)
        log_probs = F.log_softmax(outputs, dim=1)
        return log_probs

这个MLP模型展示了如何将词嵌入与全连接层结合,是理解深度学习在NLP中应用的良好起点。

5. ELMo模型实现

在第6章中,项目提供了ELMo模型中LSTM编码器的实现。以下是修正后的forward函数:

def forward(self, inputs, lengths):
    batch_size, seq_len, input_dim = inputs.shape
    rev_idx = torch.arange(seq_len).unsqueeze(0).repeat(batch_size, 1)
    for i in range(lengths.shape[0]):
        rev_idx[i,:lengths[i]] = torch.arange(lengths[i]-1, -1, -1)
    rev_idx = rev_idx.unsqueeze(2).expand_as(inputs)
    rev_idx = rev_idx.to(inputs.device)
    rev_inputs = inputs.gather(1, rev_idx)

    forward_inputs, backward_inputs = inputs, rev_inputs
    stacked_forward_states, stacked_backward_states = [], []

    for layer_index in range(self.num_layers):
        # Transfer `lengths` to CPU to be compatible with latest PyTorch versions.
        packed_forward_inputs = pack_padded_sequence(
            forward_inputs, lengths.cpu(), batch_first=True, enforce_sorted=False)
        packed_backward_inputs = pack_padded_sequence(
            backward_inputs, lengths.cpu(), batch_first=True, enforce_sorted=False)

        # forward
        forward_layer = self.forward_layers[layer_index]
        packed_forward, _ = forward_layer(packed_forward_inputs)
        forward = pad_packed_sequence(packed_forward, batch_first=True)[0]
        forward = self.forward_projections[layer_index](forward)
        stacked_forward_states.append(forward)

        # backward
        backward_layer = self.backward_layers[layer_index]
        packed_backward, _ = backward_layer(packed_backward_inputs)
        backward = pad_packed_sequence(packed_backward, batch_first=True)[0]
        backward = self.backward_projections[layer_index](backward)
        # convert back to original sequence order using rev_idx
        stacked_backward_states.append(backward.gather(1, rev_idx))

        forward_inputs, backward_inputs = forward, backward

    return stacked_forward_states, stacked_backward_states

这段代码展示了如何处理不定长序列,以及如何实现双向LSTM,这对于理解ELMo等上下文相关的词嵌入模型至关重要。

项目价值与应用

  1. 学习资源:对于正在学习《自然语言处理:基于预训练模型的方法》一书的读者来说,这个项目提供了宝贵的实践机会。

  2. 研究参考:对NLP研究者而言,项目中的代码实现可以作为基线模型或研究起点。

  3. 工程实践:项目展示了如何在实际工程中处理各种NLP任务,包括数据预处理、模型构建等。

  4. 社区贡献:通过GitHub平台,研究者可以直接贡献代码,报告问题,促进NLP社区的共同进步。

未来展望

随着NLP技术的快速发展,预期plm-nlp-code项目会持续更新,可能会包含更多最新的预训练模型实现和应用示例。建议关注该项目的后续更新,以跟进NLP领域的最新进展。

结语

HIT-SCIR/plm-nlp-code项目为NLP学习者和研究者提供了一个宝贵的资源。通过detailed code和实际示例,它bridge了理论与实践之间的Gap。无论您是NLP新手还是经验丰富的研究者,都能在这个项目中找到有价值的内容。我们鼓励读者深入探索这个项目,并在实践中不断提升自己的NLP技能。

让我们共同期待NLP技术的进一步发展,也欢迎更多的研究者参与到开源社区中来,为NLP的发展贡献自己的力量。🚀🤖📚

avatar
0
0
0
相关项目
Project Cover

CLIP

CLIP通过对比学习训练神经网络,结合图像和文本,实现自然语言指令预测。其在ImageNet零样本测试中的表现与ResNet50相当,无需使用原始标注数据。安装便捷,支持多种API,适用于零样本预测和线性探针评估,推动计算机视觉领域发展。

Project Cover

AutoGroq

AutoGroq根据用户需求动态生成AI团队,优化工作流程和项目管理。无需手动配置,即可实现专家生成、自然对话、代码片段提取等功能,并支持多种LLM整合。该工具已被近8000名开发者采用。

Project Cover

pytorch-book

这本书提供了《深度学习框架PyTorch:入门与实践(第2版)》的对应代码,基于PyTorch 1.8编写,内容涵盖基础使用、高级扩展和实战应用三大模块。读者可以学习从安装PyTorch、使用Tensor与自动微分系统、构建神经网络模块到进行数据加载与GPU加速等操作。此外,还讲解了向量化、分布式计算及CUDA扩展的高级技术,并通过图像分类、生成对抗网络、自然语言处理、风格迁移及目标检测等实战项目,深入理解并应用PyTorch进行深度学习开发。

Project Cover

rags

RAGs是一个基于Streamlit的应用程序,使用自然语言从数据源创建RAG管道。用户可以描述任务和参数,查看和修改生成的参数,并通过RAG代理查询数据。项目支持多种LLM和嵌入模型,默认使用OpenAI构建代理。该应用程序提供了一个标准的聊天界面,能够通过Top-K向量搜索或总结功能满足查询需求。了解更多关于安装和配置的信息,请访问GitHub页面或加入Discord社区。

Project Cover

Deep-Learning-Interview-Book

该指南全面涵盖深度学习领域的求职面试知识,包括数学、机器学习、深度学习、强化学习、计算机视觉、图像处理、自然语言处理、SLAM、推荐算法、数据结构与算法、编程语言(C/C++/Python)、深度学习框架等,旨在帮助求职者高效准备面试。

Project Cover

smile

Smile是一个高效且全面的机器学习系统,支持Java和Scala,包含自然语言处理、线性代数、图形、插值和可视化功能。其先进的数据结构和算法提供卓越性能,涵盖分类、回归、聚类、关联规则挖掘、特征选择、多维缩放、遗传算法、缺失值插补和高效近邻搜索等领域。用户可以通过Maven中央库使用,并在Smile网站找到编程指南和详细信息。

Project Cover

courses

本仓库汇集了各种人工智能课程和资源链接,适合不同学习阶段的用户。涵盖生成式AI、深度学习、自然语言处理等多个主题的免费课程,资源来自麻省理工学院、斯坦福大学、哈佛大学等知名机构。欢迎贡献和建议,共同打造优质的AI学习平台。

Project Cover

nlp

介绍自然语言处理(NLP)的基础知识和实际应用,包括常用数据集、机器学习模型评价方法、词袋模型、TFIDF、Word2Vec、Doc2Vec等技术,以及多层感知机、fasttext和LDA在文档分类和主题建模中的应用。还展示了对美食评语的情感分析,说明了NLP在文本理解与安全领域的重要性。此外,还介绍了一本开源NLP入门书籍的写作和更新过程,适合想深入了解NLP技术的读者。

Project Cover

BLOOM

作为致力于通过开源和开放科学推进AI发展的平台,BLOOM提供包括BloomModel在内的多款AI模型,充实的文档与代码资源助力研究人员与开发者更好地探索与应用前沿AI技术。

最新项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号