bert-base-cased

bert-base-cased

使用预训练双向Transformer模型提升语言理解能力

BERT是一种通过自监督学习预训练的双向Transformer模型,旨在改善英语语言理解。基于大型语料库的预训练,使其能学习句子的双向表示,适用于序列分类、标记分类和问答任务。通过Masked Language Modeling和Next Sentence Prediction目标进行预训练,BERT在各类任务中展现出卓越表现,但注意选择合适的训练数据以避免潜在偏见。

掩码语言建模开源项目自监督学习Huggingface模型BERT句子分类预训练Github

项目介绍:BERT base model (cased)

BERT base模型是一种预训练的英语语言模型,利用“掩码语言建模”(Masked Language Modeling)目标进行训练。该模型首次在一篇论文中介绍,并在GitHub上发布。它是一个大小写敏感的模型,也就是说它能区分“english”和“English”。

模型描述

BERT是一种基于Transformer架构的模型,通过自监督的方式在大量英语语料上进行预训练。自监督学习意味着在预训练过程中,只使用原始文本数据而不需要人工标注。这种方式允许BERT利用大量公开可用的数据来生成输入和标签。具体来说,BERT使用两个目标来进行预训练:

  • 掩码语言建模(MLM):在一个句子中,模型随机掩盖15%的单词,然后通过整个掩盖的句子来预测这些单词。与传统的递归神经网络(RNN)不同,后者通常一个接一个地处理单词。模型通过这种方式学习句子的双向表示。

  • 下一个句子预测(NSP):预训练中,模型将两个句子连接起来作为输入。有时这些句子在原始文本中相邻,有时则不是。模型需要预测这两个句子是否是相邻的。

通过这种方式,BERT能学习到英语语言的内部表示,这可以用于提取对后续任务有用的特征。比如,如果用户有一个标注好的句子数据集,可以利用BERT模型生成的特征来训练一个标准的分类器。

使用用途及限制

用户可以直接使用这个模型进行掩码语言建模或下一个句子预测,但更主要的是将其微调用于某个特定的任务。用户可以浏览模型中心查看经过微调的版本以满足特定任务的需求。

需要注意的是,这个模型主要针对那些需要利用整个句子(可能已被掩盖)进行决策的任务,如序列分类、标记分类或问答任务。对于文本生成任务,建议使用类似GPT2的模型。

如何使用

对于掩码语言建模任务,用户可以直接使用以下Python代码:

from transformers import pipeline unmasker = pipeline('fill-mask', model='bert-base-cased') unmasker("Hello I'm a [MASK] model.")

对于PyTorch,提取文本的特征可以使用:

from transformers import BertTokenizer, BertModel tokenizer = BertTokenizer.from_pretrained('bert-base-cased') model = BertModel.from_pretrained("bert-base-cased") text = "Replace me by any text you'd like." encoded_input = tokenizer(text, return_tensors='pt') output = model(**encoded_input)

对于TensorFlow,使用方式如下:

from transformers import BertTokenizer, TFBertModel tokenizer = BertTokenizer.from_pretrained('bert-base-cased') model = TFBertModel.from_pretrained("bert-base-cased") text = "Replace me by any text you'd like." encoded_input = tokenizer(text, return_tensors='tf') output = model(encoded_input)

限制和偏见

即使BERT使用的训练数据可以被认为是相对中立的,模型可能仍存在偏见。如在性别角色方面的偏见,这种偏见也可能影响模型的微调版本。

训练数据

BERT模型在BookCorpus和英文维基百科上进行预训练。BookCorpus包含11,038本未出版的书籍,维基百科部分则不包括列表、表格和标题内容。

训练程序

预处理

文本的标记化使用了WordPiece方法,词汇表大小为30,000。输入形式如下:

[CLS] Sentence A [SEP] Sentence B [SEP]

句子A和句子B有50%的概率为原始语料中的连续句子,其他情况下则是随机选择的句子。

预训练

模型使用4个云TPU在Pod配置下进行训练(共16个TPU芯片),进行了100万步训练,批量大小为256。序列长度在90%的步骤中限制为128个标记,其余10%为512个标记。优化器是Adam,学习率为1e-4。

评估结果

在微调后,BERT模型在多个任务上表现出色。针对具体任务的测试结果如下:

  • MNLI-匹配/不匹配:84.6/83.4
  • QQP:71.2
  • QNLI:90.5
  • SST-2:93.5
  • CoLA:52.1
  • STS-B:85.8
  • MRPC:88.9
  • RTE:66.4
  • 平均值:79.6

通过这种详细的介绍,希望帮助更多用户了解BERT base模型,及其可能的应用范围与注意事项。

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多