自然语言处理

分层Transformer模型探索多层次预测编码

无代码系统助力快速构建文本分类模型

针对无限长度上下文设计的高效Transformer模型

Recurrent Memory Transformer的PyTorch实现助力超长序列处理

变压器模型分层预测机制的解析工具

Ruby语言的LLaMA模型集成工具

Facebook开源语言模型推进机器翻译研究

开源韩语大语言模型,支持多种规模和部署方式

将长文本生成推向新高度 超越传统模型局限

大型语言模型工具学习调查研究

深入探讨机器学习和人工智能领域的30个核心问题

高效加载和查询预训练词向量的Python库

简化3D视觉和文本对齐的新型预训练模型

基于.NET的跨平台深度学习框架,支持多种神经网络任务

支持61种语言的多语言生成式预训练模型

将AMR解析、生成和可视化简化的Python库

整合多模态数据的先进人工智能系统

Rust实现的高性能自然语言处理分词器

单机多GPU加速BERT预训练的开源实现

Transformer模型硬件实现研究进展
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号