Taiwan-LLM是由台湾国立大学MiuLab实验室开发的一系列针对台湾传统中文优化的大语言模型。该项目旨在打造一个专属于台湾本土文化的AI语言模型,以弥合语言鸿沟,更好地服务台湾用户。
官方网站: twllm.com 在线体验Taiwan-LLM的对话能力
GitHub仓库: MiuLab/Taiwan-LLM 包含模型代码、使用说明等
Hugging Face模型页面:
论文: Taiwan LLM: Bridging the Linguistic Divide with a Culturally Aligned Language Model
评测排行榜: Open TW LLM Leaderboard
对话竞技场: Chatbot Arena
使用Hugging Face Transformers库加载模型:
from transformers import pipeline pipe = pipeline("text-generation", model="yentinglin/Llama-3-Taiwan-70B-Instruct") messages = [ {"role": "system", "content": "You are an AI assistant called Twllm, created by TAME (TAiwan Mixture of Expert) project."}, {"role": "user", "content": "你好,請問你可以完成什麼任務?"}, ] response = pipe(messages) print(response)
Taiwan-LLM在多项台湾本土NLP任务上表现优异,包括:
详细评测结果可查看Open TW LLM Leaderboard。
Taiwan-LLM为台湾本土NLP研究和应用提供了强大的基础设施,欢迎研究者和开发者们探索这一模型的潜力,共同推动台湾AI生态的发展。