本文采用docker方式启动

参考:https://github.com/QwenLM/Qwen2.5-Omni


下载模型

modelscope download --model Qwen/Qwen2.5-Omni-7B --local_dir /usr/local/ai/models/Qwen2.5-Omni-7B

下载docker镜像(耗时较长,耐心等待)

docker pull qwenllm/qwen-omni:2.5-cu121

下载后看一看模型有多大(约22G)

(base) root@deepseek:~# docker images
REPOSITORY                          TAG           IMAGE ID       CREATED         SIZE
qwenllm/qwen-omni                   2.5-cu121     04b7452fcedc   26 hours ago    22.1GB

安装 NVIDIA Docker 工具包(nvidia-docker2) ,它允许在 Docker 容器中使用 NVIDIA GPU

sudo apt-get install -y nvidia-docker2

重启docker

sudo systemctl restart docker

下载开源项目

cd /usr/local/ai/git-codes
git clone https://github.com/QwenLM/Qwen2.5-Omni.git
cd /usr/local/ai/git-codes/Qwen2.5-Omni/docker

修改 docker_web_demo.sh,注释掉docker pull部分,因为前面已经拉取了

  • 修改前备份
cp docker_web_demo.sh docker_web_demo.bak.sh
  • 修改docker_web_demo.sh内容:


运行demo

#进入目录
cd /usr/local/ai/git-codes/Qwen2.5-Omni
#运行demo(/usr/local/ai/models/Qwen2.5-Omni-7B是modelscope下载模型后存放位置)
bash docker/docker_web_demo.sh --checkpoint /usr/local/ai/models/Qwen2.5-Omni-7B
#输出:
41e9574eae11d646cb1b7d64ad14273e041d5fa344ef1b1f07700416639d170b
Successfully started web demo. Open 'http://localhost:8901' to try!
Run `docker logs qwen2.5-omni` to check demo status.
Run `docker rm -f qwen2.5-omni` to stop and remove the demo.

浏览器访问(默认8091端口)


说明:若gpu不足,但是需要执行较大图片、视频的对话,会出现错误。

docker logs qwen2.5-omni命令可以看到如下类似的错误信息:

torch.OutOfMemoryError: CUDA out of memory. Tried to allocate 53.56 GiB. 

Logo

昇腾计算产业是基于昇腾系列(HUAWEI Ascend)处理器和基础软件构建的全栈 AI计算基础设施、行业应用及服务,https://devpress.csdn.net/organization/setting/general/146749包括昇腾系列处理器、系列硬件、CANN、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链

更多推荐