自然语言处理
分层Transformer模型探索多层次预测编码
无代码系统助力快速构建文本分类模型
针对无限长度上下文设计的高效Transformer模型
Recurrent Memory Transformer的PyTorch实现助力超长序列处理
变压器模型分层预测机制的解析工具
Ruby语言的LLaMA模型集成工具
Facebook开源语言模型推进机器翻译研究
开源韩语大语言模型,支持多种规模和部署方式
将长文本生成推向新高度 超越传统模型局限
大型语言模型工具学习调查研究
深入探讨机器学习和人工智能领域的30个核心问题
高效加载和查询预训练词向量的Python库
简化3D视觉和文本对齐的新型预训练模型
基于.NET的跨平台深度学习框架,支持多种神经网络任务
支持61种语言的多语言生成式预训练模型
将AMR解析、生成和可视化简化的Python库
整合多模态数据的先进人工智能系统
Rust实现的高性能自然语言处理分词器
单机多GPU加速BERT预训练的开源实现
Transformer模型硬件实现研究进展
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号