从DeepSeek到Qwen,AI大模型的移植与交互实战指南
2025年04月24日 15:53 发布者:秦彻呀呀呀
在不久前发布的《技术实战 | OK3588-C开发板上部署DeepSeek-R1大模型的完整指南》一文中,小编为大家介绍了DeepSeek-R1在飞凌嵌入式OK3588-C开发板上的移植部署、效果展示以及性能评测,本篇文章不仅将继续为大家带来关于DeepSeek-R1的干货知识,还会深入探讨多种平台的移植方式,并介绍更为丰富的交互方式,帮助大家更好地应用大语言模型。
1.移植过程
1.1 使用RKLLM-Toolkit部署至NPURKLLM-Toolkit是瑞芯微为大语言模型(LLM)专门开发的转换与量化工具,可以将训练好的模型转化为适应瑞芯微平台的RKLLM格式。该工具针对大语言模型进行了优化,使其能高效地在瑞芯微的NPU(神经网络处理单元)上运行。上一篇文章中提到的部署方式即为通过RKLLM-Toolkit进行的NPU部署。具体步骤如下:(1) 下载RKLLM SDK:首先从GitHub下载RKLLM SDK包,并上传至虚拟机。SDK下载链接:(https://github.com/airrockchip/rknn-llm)。


install rkllm_toolkit-1.1.4-cp38-cp38-linux_x86_64.whl


python export_rkllm.py



./llm_demo _W8A8_RK3588.rkllm 10000 10000优势与不足:- 优势:部署至NPU后,大语言模型能高效运行,性能表现优异,且对CPU资源的占用较少。- 不足:相较于其他方法,部署过程稍显复杂,需要较强的技术背景和经验。1.2 使用Ollama一键部署至CPUOllama是一个开源的本地化大型语言模型(LLM)运行框架,支持在本地环境下运行各种开源LLM模型(如LLaMA、Falcon等),并提供跨平台支持(macOS、Windows、Linux)。通过Ollama,用户可以无需依赖云服务,轻松部署和运行各种大语言模型。尽管Ollama支持快速部署,但由于DeepSeek-R1尚未在RK3588芯片上进行优化,因此只能在CPU上运行,可能会占用较高的CPU资源。具体步骤如下:(1) 下载Ollama:根据需要下载并安装Ollama,curl -fsSL https://ollama.com/install.sh | sh若下载速度较慢,可参考以下镜像方式进行加速。curl -fsSL https://ollama.com/install.sh -o ollama_install.sh
chmod +x ollama_install.sh
sed -i 's|https://ollama.com/download/|https://github.com/ollama/

(2) 查看Ollama结果:
确认Ollama正确安装,并运行相关命令查看部署结果。Ollama --help


sudo apt update
sudo apt upgrade
sudo apt install nvidia-jetpack -y
(2) 进入Ollama官网:浏览Ollama支持的其他模型。

ollama run qwen:1.8b
3.交互方式在前述的部署方式中,交互方式主要基于串口调试,缺少图形界面,无法展示图片、表单等元素,也不能呈现历史对话。为了提升用户体验,我们可以通过集成ChatboxUI或WebUI等方式,提供更为丰富的交互体验。3.1 Chatbox UIChatbox是一款集成多种语言模型的AI助手工具,支持如ChatGPT、Claude等多种模型。它不仅具备本地数据存储和多语言切换功能,还支持图像生成、Markdown和LaTeX等格式,提供人性化的界面和团队协作功能。Chatbox支持Windows、macOS、Linux系统,用户可在本地快速实现对大语言模型的交互。步骤如下:(1) 下载Chatbox:从Chatbox官网(https://chatboxai.app/zh)下载适合的安装包。
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh
chmod +x Miniconda3-latest-Linux-aarch64.sh
./Miniconda3-lates

conda create --name Web-Ui python=3.11
conda activate Web-Ui
pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple
(2) 启动Web UI:使用open-webui serve启动Web UI应用,服务器的IP地址和端口号为0.0.0.0:8080。open-webui serve出现以下红框信息证明启动成功。(3) 访问Web UI:在浏览器中输入IP地址和端口号,打开Web UI界面,开始与大语言模型互动。注册账号4.总结本文全面展示了OK3588-C开发板及FCU3001边缘AI网关上大语言模型的多种移植方式,并介绍了如何通过ChatboxUI和WebUI等多种交互方式提升用户体验。飞凌嵌入式推出了多款嵌入式AI产品,如OK3588-C、OK3576-C、OK-MX9352-C、OK536-C等开发板,还有AI边缘计算终端FCU3001,算力范围从0.5TOPS到21TOPS不等,可以满足不同客户的AI开发需求。如果您对这些产品感兴趣,欢迎随时与我们联系,飞凌嵌入式将为您提供详细的技术支持与指导。