前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >橙芯创想:香橙派AIPRO解锁升腾LLM与Stable Diffusion的创意密码

橙芯创想:香橙派AIPRO解锁升腾LLM与Stable Diffusion的创意密码

作者头像
一只
发布2024-07-18 08:09:44
120
发布2024-07-18 08:09:44
举报
文章被收录于专栏:用户10693341的专栏

引言

在科技的浪潮中,一场融合智慧与创意的盛会正在启幕,《香橙派AIPRO解锁升腾LLM与Stable Diffusion的创意密码》引领你步入一个全新的维度。握住香橙派AI Pro开发板,如同掌握了一把通往未来的钥匙,不仅驾驭着ChatCLM模型,更将Stable Diffusion的力量纳入掌中,从零开始编织属于自己的智能织锦。

一. 香橙派AI PRO配置以及展示

优秀的扩展能力

​ 香橙派AI Pro,作为一款高性能的边缘计算平台,展现出非凡的扩展能力。它配备了丰富的I/O接口,包括但不限于USB、HDMI、网络接口以及GPIO端口,支持多种传感器、显示器和外部存储设备的直接连接。这种高度的兼容性和灵活性,使得开发者能够根据项目需求轻松扩展硬件配置,无论是构建复杂的机器人系统、智能物联网网关,还是高性能的边缘计算服务器,香橙派AI Pro都能提供坚实的技术支撑。

实物展示

二、Ascend-LLM模型部署

开机

香橙派AI Pro内置镜像,如果没有对高版本镜像的需求可以即插即用。

需要显示器、键盘、鼠标各一份。

默认壁纸还是非常漂亮的。默认密码:Mind@123

xshell连接香橙派

连接网络之后通过ifconfig查看ip地址。

通过ip+账号即可通过shell工具实现远程连接。我们选择xshell作为shell工具。

实战运行部署

我们选择南京大学开源的一套基于香橙派 AIpro部署的Tiny-Llama语言模型。充分释放性能。

gitee地址:[ChatGLM3 ManualReset: chatglm3基于香橙派AIPro部署 (gitee.com)](https://gitee.com/wan-zutao/chatglm3-manual-reset)

本地通过网络下载zip包通过xshell导入香橙派即可。

unzip 命令可以解压文件夹。

后面发现镜像自带git,无需下载,直使用git命名下载。

git clone https://gitee.com/wan-zutao/chatglm3-manual-reset.git

cd inference进入inference目录

bash downlado.sh 下载模型,大概11GB,网速快的几分钟即可。

python3 main.py 启动程序

在这里插入图片描述
在这里插入图片描述

从打印日志找到访问的url

可以非常愉快的和 Ascend-llm交互了。

通过top命名查看系统情况

  • CPU使用率:当前为29.1%,4.1%用于用户空间进程,4.1%用于内核空间,64.1%处于空闲状态。
  • 内存使用情况:总物理内存大小是7543.6 MiB,已用5287.6 MiB,剩余1586.9 MiB可用,交换内存总量为2048.0 MiB,已使用163.2 MiB,剩余1884.8 MiB未被使用。

运行结果分析

Ascend-LLM 部署过程中,香橙派AIPRO的兼容性和易用性得到了充分验证,使得模型能够迅速在边缘设备上实现落地。得益于其内置的NPU加速单元,Ascend-LLM的运行效率得到了显著提升,即使在资源受限的环境中也能保持高效的推理速度。

模型运行效率 得益于内置的NPU加速单元,Ascend-LLM模型在香橙派AI Pro上的运行效率显著提升,即使在资源受限的边缘设备上,也能保持高效的推理速度。

资源消耗 通过top命令监控系统状态,显示CPU使用率为29.1%,其中4.1%用于用户空间进程,4.1%用于内核空间,而64.1%处于空闲状态。内存方面,总物理内存为7543.6MiB,已用5287.6MiB,剩余1586.9MiB可用,交换内存总量为2048.0MiB,已使用163.2MiB,剩余1884.8MiB未被使用。

开发版表现

负载管理 香橙派AI Pro在处理模型时,尽管CPU和内存有一定的使用率,但整体仍有较大的余量,表明其具备良好的资源管理能力,能够在运行复杂模型的同时保持系统的稳定运行。

散热性能 在启动初期,大约10秒钟会有轻微的噪音,这是预热阶段正常现象。之后,开发板运行时几乎无声,风扇运行平稳,没有明显的噪音波动。长时间使用后,散热片温度适中,证明散热设计有效,有助于维持设备长期稳定运行。

三、Stable Diffusion

另外使用香橙派AIPRO部署了Stable Diffusion,来看看算力表现如何。

文生图

文生图是指通过输入文本描述,让Stable Diffusion模型生成与之匹配的图像。这个过程涉及到模型的推理和图像的生成。用户可以通过在工作区输入文本,然后在调参区调整参数,来生成符合自己需求的图像。

性能表现

Stable Diffusion ​对于Stable Diffusion这样的模型,通常在GPU或专用AI加速器上运行,其处理时间可以从几秒到几十秒不等,具体取决于上述因素。由于Stable Diffusion模型较为复杂,即使在高端GPU上,生成一张图像也可能需要几秒到十几秒的时间。但是,由于香橙派AI Pro的AI算力达到了20TOPS,它能够较快地处理此类任务。香橙派AI Pro的AI核心可以加速深度学习任务,但在处理复杂模型时可能不会像高端GPU那样快。在优化良好的条件下,使用香橙派AI Pro开发板生成一张图像的时间可能会在10秒到30秒之间,但这只是一个估计范围,实际时间可能会有所不同,具体取决于模型的具体配置和优化情况。

四、体验总结

性能

配置不输我自己的电脑,在跑AI模型的时候更是拉开了一大段差距。

硬件规格参数

CPU

4核64位处理器+ AI处理器 1个DaVinciV300 AI core,主频1.224GHz 4个TAISHANV200M处理器核,主频1.6GHz

AI算力

20TOPS算力

内存

LPDDR4X:12GB/24GB(可选),速率:4266Mbps

存储

·支持eMMC模块:32GB/64GB/256GB ·SATA/NVME SSD(M.2接口2280) ·SPI Flash: 32MB ·TF插槽

WIFI+蓝牙

Wi-Fi 5双频+BT 4.2,BLE

以太网收发器

双2.5G以太网

显示

·2 * HDMI TX 2.0输出,最大支持4K@60FPS ·1 * MIPI DSI 4-Lane 输出

摄像头

2 * MIPI CSI 4-Lane摄像头接口

USB

3 * USB 3.0 HOST 1 * USB Type-C 3.0 HOST/Device(兼容USB2.0) 1 * Type-C串口打印功能

音频

3.5mm耳机孔音频输入/输出

按键

1开机键、1RESET键、1启动拨动键、1BOOT键

40PIN

40PIN 功能扩展接口,支持以下接口类型: GPIO、UART、I2C、SPI、PWM

风扇

风扇接口*1

预留接口

预留2PIN电池接口

电源

Type-C PD 20V IN ,标准65W

支持的操作系统

Ubuntu、openEuler

产品尺寸

115.23mm83.26mm1.6mm

重量

120.5g

噪音

启动时,会经历大概十秒钟的轻微噪音,这是预热阶段。之后,就几乎听不到声音了。在处理模型的过程中,风扇的响声很平稳,没什么起伏。我用了好几个小时,这期间,风扇一直很安静。而且,散热片摸着不烫,说明设备散热做得挺好。

便捷性

仅需配备鼠标、键盘与显示器,即可实现全面操作。此板体积精巧,工艺细致,便携特性显著,轻而易举纳入随身口袋,随时随地展开工作或学习,移动性极佳。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-07-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 引言
  • 一. 香橙派AI PRO配置以及展示
    • 优秀的扩展能力
      • 实物展示
      • 二、Ascend-LLM模型部署
        • 开机
          • xshell连接香橙派
            • 实战运行部署
              • 运行结果分析
                • 开发版表现
                • 三、Stable Diffusion
                  • 文生图
                    • 性能表现
                    • 四、体验总结
                      • 性能
                        • 噪音
                          • 便捷性
                          相关产品与服务
                          边缘可用区
                          腾讯云边缘可用区(TencentCloud Edge Zone,TEZ)是腾讯云的本地扩展,适用于解决计算、存储和服务可用性问题。腾讯云边缘可用区可为您带来云的诸多优势,例如弹性、可扩展性和安全性。借助腾讯云边缘可用区,您可以在靠近最终用户的地理位置运行对延迟敏感的应用程序,基本消除延迟问题。腾讯云边缘可用区提供与中心节点一致的体验,助力业务下沉,具备更低延时、更广覆盖、更少成本等特点。
                          领券
                          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档