
Intel Extension for Transformers是英特尔推出的一款创新工具包,旨在加速GenAI/LLM(大型语言模型)在英特尔各种硬件平台上的部署和优化。该工具包支持英特尔Gaudi2、英特尔CPU以及英特尔GPU等多种硬件平台,为开发者提供了一站式的AI模型优化解决方案。

Intel Extension for Transformers的主要特性包括:
无缝集成Hugging Face transformers API,并利用Intel Neural Compressor实现模型压缩
提供先进的软件优化和独特的压缩感知运行时
支持多种优化后的Transformer模型包,如Stable Diffusion、GPT-J-6B、BLOOM-176B等
提供NeuralChat框架,可快速构建定制化聊天机器人
支持纯C/C++的大型语言模型推理,并提供权重量化内核
Intel Extension for Transformers提供了多种模型压缩技术,包括:
这些压缩技术可以显著减小模型大小,加快推理速度,同时保持模型精度。
该工具包针对英特尔硬件进行了深度优化,包括:
NeuralChat是一个可定制的聊天机器人框架,可以让开发者在几分钟内创建自己的聊天机器人。它提供了丰富的插件,如知识检索、语音交互、查询缓存和安全防护等。
from intel_extension_for_transformers.neural_chat import build_chatbot chatbot = build_chatbot() response = chatbot.predict("Tell me about Intel Xeon Scalable Processors.") print(response)
Intel Extension for Transformers支持纯C/C++的大型语言模型推理,并提供权重量化内核。目前支持的模型包括GPT-NEOX、LLAMA、BLOOM等多种主流大模型。
from transformers import AutoTokenizer from intel_extension_for_transformers.transformers import AutoModelForCausalLM model_name = "Intel/neural-chat-7b-v3-1" prompt = "Once upon a time, there existed a little girl," tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) inputs = tokenizer(prompt, return_tensors="pt").input_ids model = AutoModelForCausalLM.from_pretrained(model_name, load_in_4bit=True) outputs = model.generate(inputs)
Intel Extension for Transformers支持多种英特尔硬件平台:
在软件方面,它支持PyTorch、Intel Extension for PyTorch、Transformers等主流深度学习框架。
Intel Extension for Transformers已在多个领域得到应用,包括:
随着AI技术的快速发展,对高效AI推理的需求也在不断增长。Intel Extension for Transformers将继续发挥英特尔在硬件和软件方面的优势,为开发者提供更强大、更易用的AI优化工具。未来,该工具包将在以下方面持续改进:
总之,Intel Extension for Transformers为开发者提供了一个强大的工具包,可以帮助他们在英特尔平台上高效部署和优化AI模型。无 论是构建聊天机器人、进行自然语言处理还是开发其他AI应用,该工具包都能为开发者提供有力支持。随着AI技术的不断演进,Intel Extension for Transformers也将持续发展,为推动AI技术的普及和应用做出贡献。