【Hello AI】推理引擎DeepGPU-LLM-提供免费的高性能、低延迟推理服务

本文涉及的产品
云服务器 ECS,每月免费额度200元 3个月
云服务器ECS,u1 2核4GB 1个月
简介: DeepGPU-LLM是阿里云研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。

DeepGPU-LLM是阿里云研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。本文主要分为产品介绍、功能介绍、基础环境依赖安装包、相关文件说明及相关文档这几个部分进行讲解

一、产品介绍

DeepGPU-LLM作为阿里云开发的一套推理引擎,具有易用性和广泛适用性,旨在优化大语言模型在GPU云服务器上的推理过程,通过优化和并行计算等技术手段,为您提供免费的高性能、低延迟推理服务。

DeepGPU-LLM的关联布局图如下所示:

二、功能介绍

DeepGPU-LLM的主要功能包括:

  • 支持多GPU并行(Tensor Parallel)功能。
  • 支持Llama 1/2系列、ChatGLM 1/2/3系列、Baichuan 1/2系列、通义千问Qwen系列等主流模型。
  • 支持fp16,以及int8/int4低精度推理(量化模式:目前支持权重量化和KV-Cache量化)。
  • 支持多卡之间通信优化。
  • 支持stream chat输出和chat直接对话功能。

三、基础环境依赖

DeepGPU-LLM所需的基础环境依赖如下所示:

类别

规格或版本

GPU规格

SM=70, 75, 80, 86, 89(例如A800、A30、A10、V100, T4等)

操作系统

Ubuntu 20.04

CUDA版本

11.7、11.8、12.1

PyTorch版本

1.13、2.0、2.1

OpenMPI

4.0.3版本及以上

四、安装包及相关文件说明

使用DeepGPU-LLM处理大语言模型(LLM)在GPU上的推理优化时,需要您提前准备如下安装包:

安装包名称

说明

  • deepgpu_llm-x.x.x+pt1.13cu117-py3-none-any.whl
  • deepgpu_llm-x.x.x+pt2.0cu117-py3-none-any.whl
  • deepgpu_llm-x.x.x+pt2.1cu121-py3-none-any.whl

LLM模型推理加速安装包。

  • x.x.x指待安装的DeepGPU-LLM版本号。
  • 支持PyTorch 1.13、PyTorch 2.0、PyTorch 2.1版本。
  • 支持单卡或多卡GPU推理。

LLM模型推理加速安装包中所包含的文件如下所示:

文件名称

说明

  • llama_model.py
  • chatglm_model.py
  • baichuan_model.py
  • qwen_model.py
  • deepgpu_utils.py

主流模型的推理依赖代码

  • huggingface_llama_convert
  • huggingface_glm_convert
  • huggingface_chatglm2_convert
  • huggingface_baichuan_convert
  • huggingface_qwen_convert

主流模型权重转换脚本

  • baichuan_cli
  • baichuan_hf_cli
  • chatglm_cli
  • chatglm_hf_cli
  • llama_cli
  • qwen_cli

安装包提供的可运行示例代码

说明

准备好模型后可以直接运行示例代码,通过--help可查看具体参数配置。

五、相关文档

在大语言模型推理场景下,如果您想通过推理引擎DeepGPU-LLM进行不同模型(例如Llama、ChatGLM、Baichuan、通义千问Qwen等模型)的推理优化,请参见安装并使用DeepGPU-LLM


好啦!小弹的分享到此为止。我们更欢迎您分享您对阿里云产品的设想、对功能的建议或者各种吐槽,请扫描提交问卷并获得社区积分或精美礼品一份。https://survey.aliyun.com/apps/zhiliao/P4y44bm_8

【扫码填写上方调研问卷】

欢迎每位来到弹性计算的开发者们来反馈问题哦~

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
1月前
|
人工智能 NoSQL atlas
4大企业实例解析:为何MongoDB Atlas成为AI服务构建的首选
本文所提及的仅是MongoDB Atlas在AI领域可实现功能的冰山一角
1540 1
|
2月前
|
人工智能 自然语言处理 API
Google Gemma 模型服务:开放的生成式 AI 模型服务
Google Gemma 模型服务:开放的生成式 AI 模型服务
113 4
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
2024年AI辅助研发:科技创新的引擎
2024年AI辅助研发:科技创新的引擎
70 1
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
【AI】生成式AI,对话式AI,LLM,SLM 差异分析
【5月更文挑战第6天】生成式AI,对话式AI,LLM,SLM 学习
|
3天前
|
人工智能 自然语言处理 数据库
【AI 生成式】大语言模型(LLM)有哪些典型的应用场景?
【5月更文挑战第5天】【AI 生成式】大语言模型(LLM)有哪些典型的应用场景?
|
3天前
|
数据采集 机器学习/深度学习 人工智能
【AI 生成式】LLM 通常如何训练?
【5月更文挑战第5天】【AI 生成式】LLM 通常如何训练?
|
5天前
|
人工智能 自然语言处理 算法
分享几个.NET开源的AI和LLM相关项目框架
分享几个.NET开源的AI和LLM相关项目框架
|
10天前
|
存储 机器学习/深度学习 算法
如何准确的估计llm推理和微调的内存消耗
最近发布的三个大型语言模型——Command-R+ (104B参数), Mixtral-8x22b (141B参数的MoE模型), 和 Llama 3 70b (70.6B参数)——需要巨大的内存资源。推理时,Command-R+需193.72GB GPU RAM,Mixtral-8x22B需262.63GB,Llama 370b需131.5GB。激活的内存消耗根据序列长度、批大小等因素变化。文章详细介绍了计算这些模型内存需求的方法,并探讨了如何通过量化、优化器优化和梯度检查点减少内存使用,以适应微调和推理。
32 0
|
13天前
|
人工智能 边缘计算 Kubernetes
阿里云边缘容器云帮助AI推理应用快速落地
2024全球分布式云大会·北京站,阿里云徐若晨演讲内容分享
23 0
|
15天前
|
人工智能 API 网络架构
【AI大模型应用开发】【LangChain系列】7. LangServe:轻松将你的LangChain程序部署成服务
【AI大模型应用开发】【LangChain系列】7. LangServe:轻松将你的LangChain程序部署成服务
23 0
http://www.vxiaotou.com